Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц

Россия+7 (495) 960-65-87
Шрифт:
2 5159

Хотим обратить внимание всех, кто игнорирует показатели анализаторов поисковых систем и считает, что нет ничего страшного, если сайт грузится дополнительную секунду или имеет лишний мегабайт веса:

  • Во-первых, число мобильных пользователей постоянно растет. Устройства не в состоянии быстро обрабатывать сайты, имеющие значительный вес страниц, несмотря на все свои возможности.
  • Во-вторых, Google, к примеру, разделяет мобильную и десктопную выдачи. Это значит, что ваши позиции в мобильной выдаче будут ниже при плохо оптимизированном сайте. Речь идет не только об адаптивной верстке, но и грамотном распределении элементов JS и CSS на странице, скорости загрузки сайта и т.д.
  • В третьих, не у всех есть безлимитный интернет, даже с учетом глобального технического развития нашей планеты. Лишние мегабайты не в почете, об этом нужно помнить.
  • В четвертых, пользователи с каждым годом становятся искушеннее и капризнее: дополнительная секунда загрузки, непонятное меню или устаревший дизайн – это логичная причина, чтобы покинуть страницу.

Для наглядного примера мы взяли сайт крупной компании, оказывающей услуги в области контроля качества строительства крупных объектов. Задача по продвижению сайта была стандартной – добиться положительной динамики и достичь ТОП 10 выдачи Яндекс и Google по запросам выбранного семантического ядра.

Проблема #1

Большинство подобранных запросов, ввиду особенности тематики, средне и низкочастотные. При этом ядро было приличного размера, а ключевые фразы распределялись по сайту неравномерно. Значительную роль в актуальности запросов сыграло видение клиента и интерес к определенным тематикам. В итоге на некоторых страницах подобралось слишком много ключевых фраз для продвижения – до 25, что при классических методах оптимизации грозило переспамом в текстовом контенте или отсутствием позиций из-за недостатка вхождений. Создание новых тематических страниц было невозможным – перебивалась релевантность основной, в результате чего были нестабильны позиции, а смена релевантной страницы в выдаче достигала 9–11 раз в месяц.

Проблема #2

На этапе создания сайта не учли множество параметров, оказывающих влияние на SEO – имели место классические проблемы с дублями страниц, техническими параметрами в URL, неверно настроенная пагинация и т.д. Отдельным недостатком была крайне низкая скорость загрузки сайта – значительное отличие от «норматива менее 2 сек». У нас была серьезная проблема с позициями в Google, учитывая, какое влияние оказывает техническая настройка сайта на ранжирование в этой поисковой системе.

В силу специфики тематики большой процент заказов шел именно с Google. Приняли решение: «Сначала будем вытаскивать позиции в нем». Частичную роль сыграла быстрая переиндексация изменений и честная политика поисковика: «качественный сайт – выше позиции».

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 1.jpg

Решение

Мы понимали, что многие ключевые слова ввиду низкой частотности должны «выстреливать» при минимальном вмешательстве со стороны оптимизатора. Продвижение было построено следующим образом:

1. Выявление и устранение технических ошибок на сайте.

2. Оптимизация текстового контента, наполнение страниц сайта качественными изображениями.

3. Перелинковка страниц сайта.

4. Анализ и настройка мобилопригодности ресурса.

5. Оптимизация скорости загрузки.

После выполнения первых трех пунктов – не будем заострять на них внимание – и перед наполнением ресурса мы провели масштабный анализ конкурентов.

Задача анализа – получить максимальное количество данных по уровню технической оптимизации и особенностям наполнения ресурсов в ТОПе выдачи. Комплекс проведенных работ:

  • Выделение пересекающегося списка конкурентов по ВЧ-фразам в ТОПе поисковых систем. Выбрали 10 сайтов. Два из них отпали сразу, как заведомо некачественные. Что они делали в ТОПе выдачи, так и осталось загадкой.
  • Сравнительный технический аудит сайтов. Взяли около 40 основных параметров, таких как:

o Настройка зеркал

o Наличие дублей

o Количество страниц в выдаче

o Оптимизация метатегов и заголовков

o Скорость загрузки страниц

o Наличие и оптимизация изображений

o Настройка перелинковки и т.д.

На этом этапе мы получили данные по общему уровню технической настройки и оптимизации ресурса, а также выделили сильные и слабые стороны конкурентов.

  • Анализ контента конкурентов:

o Объем размещенного материала

o Уникальность текстов

o Наличие изображений и видеоматериалов

o Структура страниц

На основе полученного материала мы провели работы по наполнению ресурса и технической оптимизации: копирайтинг под конкретную тематику, согласование текстов и корректировки с клиентом. Для страниц ресурса были сделаны новые изображения, предварительно оптимизированные перед размещением. В результате мы получили качественные, объемные, уникальные и информативные страницы. Внесенные изменения помогли достигнуть часть позиций. В дальнейшем, после настройки перелинковки, к пределам ТОПа Яндекса подтянулось большинство ключевых фраз.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 2.png

Ситуация в Google расстраивала – проведенные действия не возымели результата, требуемые позиции не были достигнуты.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 3.png

Не секрет, что Google придает большое значение именно техническому состоянию сайта, чистоте кода, скорости загрузки страниц и т.д. В этом направлении есть много исследований, результаты которых можно найти на просторах интернета, интересное исследование «We Analyzed 1 Million Google Search Results. Here’s What We Learned About SEO». Комментарии от Google можно найти в их блоге. К тому же недаром Search Console имеет более обширный функционал инструментов, связанных с улучшением сайта – маркеры разметки, PageSpeed Insights и т.д.

Вернемся к оптимизации сайта

Подошла очередь серьезной проработки скорости загрузки сайта. Анализ показывал неутешительные результаты:

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 4.png

Основной проблемой являлась оптимизация большого количества изображений. Из-за них лишний вес страниц достигал 6–7 Мб. Вопрос был не в сжатии изображений, а в их количестве. Требовалось оптимизировать и найти место нескольким сотням файлов. Индивидуальная проработка и размещение по всему сайту занимало слишком много времени. Изображения, которые нам предлагает PageSpeed Insights, сильно сжаты, что приводит к падению качества. Плохой вариант, хотя и экономит много времени.

Командой разработчиков со стороны клиента был установлен плагин PageSpeed от Google. После его настройки показатель оптимизации страниц улучшился и достиг 60-65%. Выделю плюсы и минусы работы плагина:

+ После его настройки отпала необходимость в ручной обработке изображений, сжатие происходило в автоматическом режиме. При этом на сервере они оставались в первоначальном качества.

+ Значительное сокращение веса изображений – с 300 Kb до 35–45 Kb, это в среднем. Ощутимое сжатие объема, если учитывать, что на каждой странице совокупный вес изображений достигал 5–6 Mb.

- Низкое качество изображений. Про отличное фото можно было забыть. Оставили результат до появления лучших решений.

Как итог – рост позиций в Google.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 5.png

Но возникли сложности со стабильной работой плагина. Тут уже проблема была на стороне CMS. От плагина пришлось отказаться. Результатом такого решения стали старые, не оптимизированные изображения на ресурсе, а также полный откат позиций в Google. Кстати, Яндекс на эти изменения реагировал на удивление спокойно. Может быть, просто не успел все переиндексировать.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 6.png

Изображения сжимали вручную, стараясь сохранить качество. Так как размещение происходило поэтапно, ожидаемого «выстрела» не произошло, но был достигнут постепенный рост позиций, их увеличение в ТОП 10 Google.

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 7.png

На текущий момент оптимизация изображений на продвигаемых страницах и основных разделах практически завершена. В результате ручной обработки с учетом сохранения качества вес файлов оказался снижен не более чем в 2 раза. Положительная динамика в Google сохраняется. Показатель оптимизации скорости загрузки страниц лучше, чем после работы плагина:

Зависимость позиций сайта в выдаче Google от оптимизации загрузки страниц 8.png

Максимальные показатели по изображениям не достигнуты из-за сохранения приемлемого качества. Визуальная составляющая тоже важна. После настройки кэша браузера с корректировкой JavaScript и CSS планируем достигнуть значений выше 85%.

Проведенную оптимизацию скорости загрузки страниц можно считать наглядным экспериментом зависимости позиций в Google. Яндекс на подобные изменения реагирует не так быстро и не столь резко. Для достижения результатов потребуется длительное время – до 1–2 месяцев, поэтому оптимизация сложнее поддается анализу. Google учитывает корректировки быстрее, в отдельных случаях результат можно получить уже на 2–3 день. Все зависит от особенностей алгоритма конкретной поисковой системы.

Конечно, настройка только технических параметров сайта и его быстродействия – не панацея. Нельзя ограничиваться только этими элементами, но в совокупности с наполнением ресурса, оптимизацией текстового контента, тегов, настройкой перелинковки и многих других факторов улучшение показателей скорости загрузки даст дополнительный результат в первую очередь для Google. Повторимся, недаром эти инструменты представлены в функционале Google для вебмастеров.

0
0

Есть о чем рассказать? Тогда присылайте свои материалы в редакцию.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Андрей Абрамов
    2
    комментария
    0
    читателей
    Андрей Абрамов
    больше года назад
    Я бы так сказал: если скорость сайта ОЧЕНЬ низкая - это влияет, если в целом нормальная, 3-4 секунды, то дальнейшее ускорение почти ничего не даст.
    -
    2
    +
    Ответить
    • Александр Рунов
      18
      комментариев
      0
      читателей
      Само собой, после определенного порога - результат будет менее значителен для позиций. Но, на мой взгляд, даже 4 сек надо стараться оптимизировать. Для пользователя ждать 2 сек или 4 - все-таки разница очевидная. Соответственно ниже отказы, выше конверсия. Ну и чисто для SEO - лучше ПФ :)
      -
      5
      +
      Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Сколько ссылок помогут продвинуть молодой сайт
Павел Андрейчук
41
комментарий
0
читателей
Полный профиль
Павел Андрейчук - Дело в том, что вряд ли в ваших платных "качественных" кейсах найдётся хоть пару % действительно новой и полезной информации которой бы не было на общедоступных источниках.
Google Data Studio: делаем красивые отчеты по контекстной рекламе для клиентов
Никита Кудрин
1
комментарий
0
читателей
Полный профиль
Никита Кудрин - Все понимаю, кроме того как сделать что бы наименования показателей и параметров не менялись на англоязычные при выборе источника.
Сайт на WordPress: за и против
Мира Смурков
1
комментарий
0
читателей
Полный профиль
Мира Смурков - Людмила, я согласен с большинством комментаторов. Вы хоть один полноценный магазин сделали на этих движках? Woocommerce это система с супер возможностями. И к ней есть дополнительные модули, с функционалом, который вряд ли появиться на Битрикс. А самому это программировать - сотни тысяч рублей на разработку. А приведя в пример сложности с robots.txt и Sitemap вы ставите под вопрос вашу компетенцию в понимании Интернет-бизнеса и веб-разработки в целом. Во-первых это такие мелочи, а во-вторых это все делается на вордпресса за 2 минуты, и опять же с возможностями многократно превышающими Битрикс.
Обзор популярных CMS: плюсы и минусы
Андрей Литвиненко
2
комментария
0
читателей
Полный профиль
Андрей Литвиненко - + там где нужно прописать каноникал, там где нужно поставить мета тег ноиндекс (т.к. Гугл не всегда следует правилам robots.txt) ну и то что выше, к техническим сео возможнлстям можно еще отнести легкое и хотя бы полуавтоматическое добавление микроразметки по сайту, увы "из коробки" такого функционала нет ни в одной cms, все на допиливаниях
Google обошел Яндекс по популярности в России в 2018 году: исследование SEO Auditor
Рамблер
1
комментарий
0
читателей
Полный профиль
Рамблер - Вот вроде отечественный - это сказано верно.. «Я́ндекс» — российская транснациональная компания, зарегистрированная в Нидерландах. Так говорится в Википедии. И с хрена ли ОТЕЧЕСТВЕННЫЙ поисковик зарегистрирован в Европе? И где платится основная часть налогов? Ну-ууу, точно не в России. И если запахнет жаренным, то был Яндекс и нет Яндекса!
8 методик в SEO, от которых давно пора отказаться
Евгений Сметанин
12
комментариев
0
читателей
Полный профиль
Евгений Сметанин - Факторов вообще очень много, согласитесь, вы будете использовать максимальное их количество, особенно, если в ТОПе засели агрегаторы с сумасшедшими ПФ. В таких случаях, вхождение ключа в домен для маленького профильного сайта, сыграет свою положительную роль. Конечно же, если контент на страницах хорошего качества. У меня есть несколько успешных кейсов на эту тему. На сайте продают несколько видов товаров, а выстреливает в ТОП тот, название которого присутствует в доменном имени. Как корабль назовешь, так он и поплывет, верно?))
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Ann Yaroshenko
4
комментария
0
читателей
Полный профиль
Ann Yaroshenko - добрый день! Спасибо за ваш вопрос. Ответ зависит от тематики сайта - допустим у вас на страницах пагинации меняется только размер/цвет или другие параметры товаров - тогда лучше закрывать пагинацию в роботс. если же, например, на первой странице пользователь задал вопрос, а нужный для себя ответ находит на 2-10-20-той странце (как на форумах, например) - лучше разрешить боту сканировать контент - ведь пользователь тоже может перейти к вам на сайт потому, что видит интересный для себя ответ на 2-10-20-той странице.
Как выбрать подрядчика для продвижения сайта: 7 уровней воронки поиска
aashutosh
1
комментарий
0
читателей
Полный профиль
aashutosh - data science training institute in noida- Webtrackker Technology (8802820025) providing Data Science Training in Noida. Get ✓ 40 Hours Learning training✓ 70 Hrs Projects ✓ 24 X 7 Support ✓ Job Assistance. WEBTRACKKER TECHNOLOGY (P) LTD. C - 67, sector- 63, Noida, India. E-47 Sector 3, Noida, India. +91 - 8802820025 0120-433-0760 +91 - 8810252423 012 - 04204716 EMAIL:info@webtrackker.com webtrackker.com/Best-Data-Science-Training-Institute-in-Noida.php
Как построить качественный ссылочный профиль на основе конкурентов
Ирина
5
комментариев
0
читателей
Полный профиль
Ирина - Давно сотрудничаю с megaindex.com и считаю данный сервис одним из лучших в сео сегменте рунета да и не только рунета. Пользуюсь их инструментами для аналитики своих работ и выявлению своих и чужих ошибок. Да и ссылочный профиль, как и говорится в данной статье сделать гораздо проще и правильней при помощи как раз мегаиндекса. Добавлю еще что инструмент для поиска конкурентов у мегаиндекса очень удобный и простой в применении.
Чек-лист для аудита рекламных кампаний в Яндекс.Директе и Google Ads
Елена Бикташева
1
комментарий
0
читателей
Полный профиль
Елена Бикташева - Спасибо! Была бы еще возможность скачивания.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
346
Комментариев
262
Комментариев
248
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
105
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
63
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!