Поисковые роботы Google начнут обращать внимание на CSS и JavaScript файлы, а также на изображения на странице. Соответствующие изменения Google внес в Руководство для вебмастеров. Для того чтобы индексация веб-страниц происходила корректно, роботам Google необходимо открыть в файле robots.txt доступ к перечисленным элементам. В противном случае сайт может потерять позиции в поисковой выдаче.
По словам разработчиков Google, смысл обновления — отказ от прежнего принципа работы систем индексирования, идентичного устаревшим текстовым веб-браузерам наподобие Lynx. Новая технология индексирования заключается в визуализации (рендеринге) распознаваемых страниц. По мнению представителей Google, это больше соответствует такому понятию, как «современный веб-браузер».
Google выделил ряд пунктов, о которых важно не забывать. Первое — движок Google, осуществляющий рендеринг веб-страниц, может не поддерживать некоторые технологии веб-дизайна, с помощью которых написана страница. Поэтому разработчикам сайтов рекомендовано следовать концепции прогрессивного улучшения. Её принципы позволяют системам индексирования лучше распознавать содержимое страниц.
Страницы, которые быстро загружаются, эффективнее индексируются поисковыми роботами. Для успешной индексации представители Google советуют оптимизировать веб-страницы, обращая внимание на следующие параметры:
отсутствие лишних загружаемых элементов на сайте,
объединение отдельных файлов CSS и JavaScript в один посредством минификации. Это повысит скорость загрузки страницы и снизит нагрузку на сервер.
возможность сервера обеспечивать корректную работу JavaScript и CSS файлов, а также их взаимодействие с ботами Google.
Поисковик также обновил опцию Fetch as Google — «Просмотреть, как Googlebot». Данный инструмент позволяет вебмастерам посмотреть на сканирование страниц глазами поискового робота.
Напомним, что обновление принципов работы систем индексации разработчики Google анонсировали ещё в мае 2014 года, о чем даже написали соответствующий пост. В нем говорилось, что до нынешнего момента внимание обращалось только на «сырое текстовое содержание» страницы, а JavaScript и CSS игнорировались.
Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.
Рассказать друзьям:
Нас удобно читать в социальных сетях. Подписывайся!
Сергей Ерофеев -
Спасибо за комментарий!
Вы правы, если за CMS следит заинтересованный профессионал - риски минимальны. Но мы же с вами понимаем, что:
а) Не каждый разработчик делает все, как "для себя".
б) После создания сайта разработчик редко остается на проекте
в) Часто разработчик не является маркетологом. В этом случае принцип "функционал работает и этого достаточно" может быть на первом месте.
Мы тоже видели большое количество хороших и качественных проектов на бесплатных CMS, но проблемных проектов мы видели сильно больше. Просто статистика.
sarges -
Нужно учитывать и тот факт, что со временем методы продвижения меняются и необходимо подстраиваться под новые реалии. Посоветую заглянуть на zenlink.ru/blog/kak-izmenilsja-internet-marketing-za-10-let и почитать статью, там рассказывается о том, как изменился интернет-маркетинг за последние 10 лет, какие сейчас тенденции и какие прогнозы в этой сфере.
Seodm.ru -
Ааа по мне, сам seo специалист, вероятность внедрения необходимого контента на тильда того же блока этапом работы или преимуществ, намного выше чем на движке. А что тильда что движок малый бизнес норм продвигается особо супер разработки не требуется
Кирилл Половников -
Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией.
Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Павел -
Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов.
Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Игорь Скляр -
Действительно, изначально рост был именно по информационным запросам. Но рост позиций и трафика по информационным запросам положительно повлиял и на связанные позиции по коммерческим запросам и сдвинул видимость с мёртвой точки
Фанит -
Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Александр -
Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.