×

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц

Россия +7 (495) 139-20-33
Шрифт:
2 7657
Подпишитесь на нас в Telegram

Хотим обратить внимание всех, кто игнорирует показатели анализаторов поисковых систем и считает, что нет ничего страшного, если сайт грузится дополнительную секунду или имеет лишний мегабайт веса:

  • Во-первых, число мобильных пользователей постоянно растет. Устройства не в состоянии быстро обрабатывать сайты, имеющие значительный вес страниц, несмотря на все свои возможности.
  • Во-вторых, Google, к примеру, разделяет мобильную и десктопную выдачи. Это значит, что ваши позиции в мобильной выдаче будут ниже при плохо оптимизированном сайте. Речь идет не только об адаптивной верстке, но и грамотном распределении элементов JS и CSS на странице, скорости загрузки сайта и т.д.
  • В третьих, не у всех есть безлимитный интернет, даже с учетом глобального технического развития нашей планеты. Лишние мегабайты не в почете, об этом нужно помнить.
  • В четвертых, пользователи с каждым годом становятся искушеннее и капризнее: дополнительная секунда загрузки, непонятное меню или устаревший дизайн – это логичная причина, чтобы покинуть страницу.

Для наглядного примера мы взяли сайт крупной компании, оказывающей услуги в области контроля качества строительства крупных объектов. Задача по продвижению сайта была стандартной – добиться положительной динамики и достичь ТОП 10 выдачи Яндекс и Google по запросам выбранного семантического ядра.

Проблема #1

Большинство подобранных запросов, ввиду особенности тематики, средне и низкочастотные. При этом ядро было приличного размера, а ключевые фразы распределялись по сайту неравномерно. Значительную роль в актуальности запросов сыграло видение клиента и интерес к определенным тематикам. В итоге на некоторых страницах подобралось слишком много ключевых фраз для продвижения – до 25, что при классических методах оптимизации грозило переспамом в текстовом контенте или отсутствием позиций из-за недостатка вхождений. Создание новых тематических страниц было невозможным – перебивалась релевантность основной, в результате чего были нестабильны позиции, а смена релевантной страницы в выдаче достигала 9–11 раз в месяц.

Проблема #2

На этапе создания сайта не учли множество параметров, оказывающих влияние на SEO – имели место классические проблемы с дублями страниц, техническими параметрами в URL, неверно настроенная пагинация и т.д. Отдельным недостатком была крайне низкая скорость загрузки сайта – значительное отличие от «норматива менее 2 сек». У нас была серьезная проблема с позициями в Google, учитывая, какое влияние оказывает техническая настройка сайта на ранжирование в этой поисковой системе.

В силу специфики тематики большой процент заказов шел именно с Google. Приняли решение: «Сначала будем вытаскивать позиции в нем». Частичную роль сыграла быстрая переиндексация изменений и честная политика поисковика: «качественный сайт – выше позиции».

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 1.jpg

Решение

Мы понимали, что многие ключевые слова ввиду низкой частотности должны «выстреливать» при минимальном вмешательстве со стороны оптимизатора. Продвижение было построено следующим образом:

1. Выявление и устранение технических ошибок на сайте.

2. Оптимизация текстового контента, наполнение страниц сайта качественными изображениями.

3. Перелинковка страниц сайта.

4. Анализ и настройка мобилопригодности ресурса.

5. Оптимизация скорости загрузки.

После выполнения первых трех пунктов – не будем заострять на них внимание – и перед наполнением ресурса мы провели масштабный анализ конкурентов.

Задача анализа – получить максимальное количество данных по уровню технической оптимизации и особенностям наполнения ресурсов в ТОПе выдачи. Комплекс проведенных работ:

  • Выделение пересекающегося списка конкурентов по ВЧ-фразам в ТОПе поисковых систем. Выбрали 10 сайтов. Два из них отпали сразу, как заведомо некачественные. Что они делали в ТОПе выдачи, так и осталось загадкой.
  • Сравнительный технический аудит сайтов. Взяли около 40 основных параметров, таких как:

o Настройка зеркал

o Наличие дублей

o Количество страниц в выдаче

o Оптимизация метатегов и заголовков

o Скорость загрузки страниц

o Наличие и оптимизация изображений

o Настройка перелинковки и т.д.

На этом этапе мы получили данные по общему уровню технической настройки и оптимизации ресурса, а также выделили сильные и слабые стороны конкурентов.

  • Анализ контента конкурентов:

o Объем размещенного материала

o Уникальность текстов

o Наличие изображений и видеоматериалов

o Структура страниц

На основе полученного материала мы провели работы по наполнению ресурса и технической оптимизации: копирайтинг под конкретную тематику, согласование текстов и корректировки с клиентом. Для страниц ресурса были сделаны новые изображения, предварительно оптимизированные перед размещением. В результате мы получили качественные, объемные, уникальные и информативные страницы. Внесенные изменения помогли достигнуть часть позиций. В дальнейшем, после настройки перелинковки, к пределам ТОПа Яндекса подтянулось большинство ключевых фраз.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 2.png

Ситуация в Google расстраивала – проведенные действия не возымели результата, требуемые позиции не были достигнуты.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 3.png

Не секрет, что Google придает большое значение именно техническому состоянию сайта, чистоте кода, скорости загрузки страниц и т.д. В этом направлении есть много исследований, результаты которых можно найти на просторах интернета, интересное исследование «We Analyzed 1 Million Google Search Results. Here’s What We Learned About SEO». Комментарии от Google можно найти в их блоге. К тому же недаром Search Console имеет более обширный функционал инструментов, связанных с улучшением сайта – маркеры разметки, PageSpeed Insights и т.д.

Вернемся к оптимизации сайта

Подошла очередь серьезной проработки скорости загрузки сайта. Анализ показывал неутешительные результаты:

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 4.png

Основной проблемой являлась оптимизация большого количества изображений. Из-за них лишний вес страниц достигал 6–7 Мб. Вопрос был не в сжатии изображений, а в их количестве. Требовалось оптимизировать и найти место нескольким сотням файлов. Индивидуальная проработка и размещение по всему сайту занимало слишком много времени. Изображения, которые нам предлагает PageSpeed Insights, сильно сжаты, что приводит к падению качества. Плохой вариант, хотя и экономит много времени.

Командой разработчиков со стороны клиента был установлен плагин PageSpeed от Google. После его настройки показатель оптимизации страниц улучшился и достиг 60-65%. Выделю плюсы и минусы работы плагина:

+ После его настройки отпала необходимость в ручной обработке изображений, сжатие происходило в автоматическом режиме. При этом на сервере они оставались в первоначальном качества.

+ Значительное сокращение веса изображений – с 300 Kb до 35–45 Kb, это в среднем. Ощутимое сжатие объема, если учитывать, что на каждой странице совокупный вес изображений достигал 5–6 Mb.

- Низкое качество изображений. Про отличное фото можно было забыть. Оставили результат до появления лучших решений.

Как итог – рост позиций в Google.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 5.png

Но возникли сложности со стабильной работой плагина. Тут уже проблема была на стороне CMS. От плагина пришлось отказаться. Результатом такого решения стали старые, не оптимизированные изображения на ресурсе, а также полный откат позиций в Google. Кстати, Яндекс на эти изменения реагировал на удивление спокойно. Может быть, просто не успел все переиндексировать.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 6.png

Изображения сжимали вручную, стараясь сохранить качество. Так как размещение происходило поэтапно, ожидаемого «выстрела» не произошло, но был достигнут постепенный рост позиций, их увеличение в ТОП 10 Google.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 7.png

На текущий момент оптимизация изображений на продвигаемых страницах и основных разделах практически завершена. В результате ручной обработки с учетом сохранения качества вес файлов оказался снижен не более чем в 2 раза. Положительная динамика в Google сохраняется. Показатель оптимизации скорости загрузки страниц лучше, чем после работы плагина:

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 8.png

Максимальные показатели по изображениям не достигнуты из-за сохранения приемлемого качества. Визуальная составляющая тоже важна. После настройки кэша браузера с корректировкой JavaScript и CSS планируем достигнуть значений выше 85%.

Проведенную оптимизацию скорости загрузки страниц можно считать наглядным экспериментом зависимости позиций в Google. Яндекс на подобные изменения реагирует не так быстро и не столь резко. Для достижения результатов потребуется длительное время – до 1–2 месяцев, поэтому оптимизация сложнее поддается анализу. Google учитывает корректировки быстрее, в отдельных случаях результат можно получить уже на 2–3 день. Все зависит от особенностей алгоритма конкретной поисковой системы.

Конечно, настройка только технических параметров сайта и его быстродействия – не панацея. Нельзя ограничиваться только этими элементами, но в совокупности с наполнением ресурса, оптимизацией текстового контента, тегов, настройкой перелинковки и многих других факторов улучшение показателей скорости загрузки даст дополнительный результат в первую очередь для Google. Повторимся, недаром эти инструменты представлены в функционале Google для вебмастеров.

Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы в редакцию.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Андрей Абрамов
    2
    комментария
    0
    читателей
    Андрей Абрамов
    больше года назад
    Я бы так сказал: если скорость сайта ОЧЕНЬ низкая - это влияет, если в целом нормальная, 3-4 секунды, то дальнейшее ускорение почти ничего не даст.
    -
    2
    +
    Ответить
    • Александр Рунов
      18
      комментариев
      0
      читателей
      Само собой, после определенного порога - результат будет менее значителен для позиций. Но, на мой взгляд, даже 4 сек надо стараться оптимизировать. Для пользователя ждать 2 сек или 4 - все-таки разница очевидная. Соответственно ниже отказы, выше конверсия. Ну и чисто для SEO - лучше ПФ :)
      -
      5
      +
      Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Примеры использования ChatGPT в SEO-стратегии
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Если кто то хочет протестировать Cat GPT в SЕО проектах на базе нашего агенства, приглашаем наудалкнную работу Tg: @thegoodlink
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Анна
1
комментарий
0
читателей
Полный профиль
Анна - Ха, занятно. А я еще видела полезное описание тут digitalproweb.ru/sozdanie-sajtov-vybrat-konstruktory-ili-cms
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Как мы увеличили для клиента трафик из поиска в 7 раз. Кейс
Кирилл Половников
2
комментария
0
читателей
Полный профиль
Кирилл Половников - Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией. Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Как в перегретой нише получать заявки и добиться конверсии в 19%
ZRZ8GCHIZ6 www.yandex.ru
1
комментарий
0
читателей
Полный профиль
ZRZ8GCHIZ6 www.yandex.ru - ZRZ8GCHIZ6 www.yandex.ru
Что такое Яндекс Советник, и кому от него жить хорошо
Мама Стифлера
1
комментарий
0
читателей
Полный профиль
Мама Стифлера - Вызывает сожаление, что вы не осознаете, что Яндекс.Советник может быть рассмотрен как форма рэкета, которая заставляет компании, размещающиеся в Яндекс.Маркете, выплачивать дополнительные финансовые средства, повышая в конечном итоге прибыль Яндекс.Маркета, но не принесет пользы для посетителей сайта.
Самые быстрорастущие доменные зоны в 2023 году. Исследование RU-CENTER
Станислав
1
комментарий
0
читателей
Полный профиль
Станислав - С 2019 года количество доменов в зоне .ru остается на одном и том же уровне - около 5 млн. Все изменения на уровне 1% от этого объема в плюс или минус
Как дожать сайт до ТОПа? Выжимаем весь сок из SEO под Яндекс и Google
Фанит
2
комментария
0
читателей
Полный профиль
Фанит - Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Особенности внутренней перелинковки для крупных сайтов
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Haaaa! Articol despre "перелинковка" cu scopul de a acapara BackLink-uri. Înțeleg cu exemplele din zona ru, da chiar sa folosiți și md, panda, serios?
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
386
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
118
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!