Услуги по созданию ссылок


Меня зовут Павел Кондрашов, я главный SEO-менеджер компании i-Media. Мы помогаем предприятиям находить клиентов с помощью поиска и обеспечивать продажи на их веб-сайте. В этой статье я расскажу вам, как я обнаружил неспособность Screaming Frog эмулировать ботов Яндекса. Материал будет полезен как новичкам, так и опытным специалистам.

Слишком много пустых тегов

Исследуя сайт клиента, я обнаружил необычно большое количество пустых тегов заголовков на страницах, которые должны быть закрыты для индексации. Я начал думать, с чем это может быть связано. Подозрение пало на robots.txt.

Пустые теги

На скриншоте видно, что пустых тегов чуть менее 50%, что в несколько раз превышает норму.

С помощью Вебмастера и служебного файла я проверил, учитывает ли программа нужную директиву. Гипотеза не подтвердилась, файл верный, но проблема не исчезла.

Проверьте файл

Тогда я предположил, что при разборе файл был проигнорирован в включенной лягушке. Но и здесь все было в порядке.

Проверьте файл

На скриншоте видно, что программа при анализе учитывает роботов, а это значит, что проблема не в выбранной настройке.

Тогда мне пришла идея: сравнить, какой пользовательский агент в файле robots.txt сайта содержит директиву close и какой пользовательский агент эмулирует Frog. Оказалось, что в robots.txt директива касается только бота user-agent Яндекса и бота Google Screaming Frog. Для проверки гипотезы я сменил бота Google на бота Яндекса, начал сканирование, но страницы остались.

Проверьте файл

Все оказалось гораздо интереснее

На этом идеи и закончились. Я связался с коллегами, но раньше никто с такой проблемой не сталкивался и они посоветовали мне сделать то, что я уже опробовал и что не сработало. Далее я решил сравнить список ботов, указанный в Справке Яндекса, со списком в Screaming Frog. Они были одинаковыми. Потом я сравнил версии, так как думал, что лягушка не последняя. Но нет.

ЧИТАТЬ   Десять действенных методов для поднятия сайта в верхнюю часть поисковых систем

После некоторого времени размышлений возникла гипотеза о неспособности Screaming Frog эмулировать ботов Яндекса. Это будет означать, что самый популярный и известный инструмент SEO не так универсален.

Пользовательский агент в Справке Яндекса

Пользовательский агент в Справке Яндекса полностью совпал с указанным в Screaming Frog

Для проверки гипотезы я добавил пользовательский файл robots.txt в Screaming Frog. Он содержал директиву, которая блокировала индексацию страницы для всех пользовательских агентов. Все заработало, страницы перестали заходить в Screaming Frog.

страницы отсутствуют

И наконец страницы исчезли

Яндекс Бот 1:0 Кричащая Лягушка

Этот случай выявил неспособность Screaming Frog эмулировать ботов Яндекса, а значит, аналитикам и оптимизаторам необходимо внимательно относиться к возможным ограничениям инструментов и проверять полученные данные в Яндекс Мастере. Это единственный способ гарантировать точность результатов и обеспечить эффективные меры по улучшению производительности веб-ресурсов.





Source link