Услуги по созданию ссылок


Продолжительность: 8:49

Ноиндекс не поможет. Google учитывает скорость загрузки на закрытых страницах | Урок №383
SEO

&nbsp

В новом аудиоподкасте №383 Николай Шмичков рассказал о том, что Noindex не спасет.

Google учитывает скорость загрузки на ограниченных страницах.

Текстовая версия выступления:

«Всем привет!

Вы находитесь на канале SEOquick.

Меня зовут Николай Шмичков.

Это обзор последних новостей и недавней онлайн-прессы, посвященной Google Core Web Vitals.

Тот самый фильтр, который выйдет буквально очень скоро.

На самом деле, по этому поводу ведутся огромные споры.

И самый первый вопрос, который был задан, действительно, был у всех на устах, но никто его не задал.

Крутится, что называется, на языке.

Это: «Что если моя страница работает медленно и я закрою ее от индексации – улучшится ли это мой рейтинг?»

Да или нет?»

Фактически, Core Web Vitals может учитывать неиндексированные страницы.

Google заявляет, что неиндексированные страницы по-прежнему можно использовать для оценки основных веб-показателей, которые вскоре действительно станут факторами ранжирования в поисковых системах.

Другими словами: страницы, которые вы намеренно исключили из поискового индекса, могут использоваться для оценки показателей, влияющих на ваш рейтинг в результатах поиска.

Конечно, это нормальный повод для беспокойства.

Потому что мы часто скрываем от индексации какие-то тяжелые внутренние страницы, находящиеся внутри нашего сайта.

И оказывается, это повлияет на рейтинг.

И как с этим бороться?

Этот вопрос был задан Джону Мюллеру 4 декабря, и он ответил на него совсем недавно.

Был задан вопрос относительно использования Google агрегированных данных для измерения основных веб-показателей.

Google берет групповые страницы, анализирует их и использует данные для расчета основных веб-показателей вашего сайта, которые являются репрезентативными для всего вашего сайта.

И его спросили в таком формате.

Core Web Vitals учитывает неиндексированные страницы и объекты, заблокированные в robots.txt.

Оказывается, страницы, попадающие в индекс анализа Search Console, довольно обширны.

И некоторые из них могут оказаться там, даже заблокированные файлом robots.txt.

И действительно, Джон Мюллер ответил, что считает, что неиндексированные страницы являются частью вашего сайта.

Поэтому, если вы используете некоторые дополнительные функции, которые не проиндексированы, люди все равно будут видеть их как часть вашего сайта.

Говорят, что этот ваш сайт медленный или что сайт быстрый.

Фактически, Google рассчитывает пользовательский опыт на основе данных, которые он берет с анализируемых страниц.

Вполне вероятно, что эти страницы будут проиндексированы в будущем.

Либо эти страницы не индексируются из-за какой-то ошибки.

И поэтому Google берет эти данные за основу.

Самое обидное, что просто закрыть robots.txt или тег noindex, чтобы скрыть медленную страницу, у вас просто не получится.

Для изменения восприятия страницы нужны обоснования.

Потому что таким образом пользователь должен знать, что на вашем сайте есть внутренние страницы.

И куда он может попасть, уже переходя со страницы, которая есть в индексе.

Таким образом, Core Web Vitals влияет на весь сайт, а не только на факторы ранжирования страниц.

Поэтому я бы выделил Core Web Vitals как алгоритм, который является не постраничным, а частично их скелетом.

Потому что на общую производительность сайта будет влиять то, как Google сканирует ваши внутренние страницы.

Что делать дальше?

Я бы прогнал весь ваш сайт через анализ PageSpeed.

Я бы проверил все ваши страницы на скорость загрузки.

Я бы сделал это как-нибудь массово.

Я проверял медленные страницы и начинал их исправлять.

Я понимаю, что в Search Console можно получить данные о скорости страницы и ошибках мобильных устройств.

Но иногда эти данные могут не прийти вовремя и просто проверить их на сайте, который еще не проиндексирован, недостаточно.

Поэтому в этом плане я бы посоветовал воспользоваться некоторыми сторонними сервисами анализа PageSpeed.

Мы сейчас разрабатываем подобный, как будто знали, где его искать, куда его заложить.

И вы можете использовать наш инструмент «Аудит веб-сайта».

Вскоре он будет доступен для массового анализа PageSpeed ​​списков страниц, которые вы ему передаете.

Следующее, на что я хотел бы обратить внимание, это то, что индексированный контент, который вы отправляете в Google для анализа PageSpeed, иногда может быть изменен.

Они могут создавать страницы-заглушки.

Они могут показать вам красивый PageSpeed, просто вставив пару строчек кода, которые обманывают пользователя.

Я бы сейчас побоялся экспериментировать с такими трюками по одной простой причине.

Google может серьезно отнестись к этому методу обмана.

Забаньте те сайты, которые использовали этот метод обхода собственного алгоритма PageSpeed.

Поэтому я бы точно не советовал массово закрывать неиндексируемый контент какими-то дешевыми методами.

Лучше сделать хороший, грамотный технический аудит.

Обратите внимание на скорость загрузки.

Все эти 6 ключевых показателей, которые я обсуждал в прошлом видео, касающиеся скорости сайта.

И действительно выпишите список ошибок программисту.

На самом деле у вас есть три месяца, чтобы решить все эти проблемы.

Почему?

Потому что я уверен, что Core Web Vitals будет реализован в следующем обновлении ядра.

Сейчас о нем в основном только разговоры.

И, как мы знаем, раз уж Google о чем-то говорит, то он представит это в следующем большом обновлении или в одном обновлении.

И мы говорим о Core Web Vitals уже шесть месяцев.

Это значит, если считать, условно говоря, что вышло декабрьское обновление.

Январь февраль март…

Вероятно, у нас будет мартовское или апрельское обновление.

Примерно в этот период он выйдет.

Формально у вас есть три месяца, чтобы улучшить скорость вашего сайта.

Вам нужно смотреть не только проиндексированные страницы, но и те, что находятся внутри.

Это касается страницы регистрации, оформления заказа, внутреннего личного кабинета и всего контента, который доступен только после регистрации.

Всем контенту нужно будет уделить внимание: он должен быстро загружаться.

И я видел сайты, которые внешне кажутся быстрыми, но после регистрации начинают жутко тормозить и долго загружаться.

Это действительно проблема, с которой Google будет бороться.

Если вам понравился анализ этой новости, то напишите в комментариях, что вы думаете об этой новости.

Я хотел бы услышать ваше мнение.

На мой взгляд, в целом идея вполне разумная.

Но, конечно, это несправедливо по отношению к тем сайтам, на которых много технических ошибок.

Потому что они могут очень сильно рассыпаться, если у них есть внутренние страницы, которые забыли закрыть или удалить.

Которые не индексируются, но старые.

Допустим, есть глюки темы после перемещения, какие-то глючные страницы после загрузки.

Оказывается, их всех нужно раскопать и изучить.

Лучший вариант — как накопать список страниц, которых нет в индексе.

Зайдите к своему веб-мастеру и посмотрите, какие там страницы.

Загрузите список этих страниц с сайта Google Webmaster.

Он сосредоточится, прежде всего, только на них.

И конечно же, разберитесь с ними: либо убейте, либо перенаправьте.

Сделайте с ними что-нибудь, чтобы те страницы, которые бесполезны…

И чаще всего именно там находится такой бесполезный мусор – его нужно как-то убрать.

Именно из-за этого у вас могут возникнуть большие проблемы в следующем обновлении ядра.

Проведите технический аудит.

Исправьте вовремя.

Возьмите в свою команду умных программистов.

И, как говорится, первое место вам и органике от Google.

Всем спасибо и хороших праздников!»





Source link

ЧИТАТЬ   New York Times: Продвижение Мэтью Браунштейна