×
Россия +7 (495) 139-20-33

Автоматические SEO-аудиты: как напугать некорректными выводами

Россия +7 (495) 139-20-33
Шрифт:
12 30806
Подпишитесь на нас в Telegram

Существует масса автоматических анализаторов SEO сайта. Достаточно вбить адрес онлайн – и вы получаете огромный перечень различных параметров, обычно разделенных на примитивные «хорошо», «плохо», «для информации». Безоговорочно следовать таким рекомендациям точно не стоит, а принимать во внимание – с большой осторожностью. Основные варианты неправильной интерпретации результатов таких анализов мы рассмотрим в этой статье.

Длина мета-тегов

Это чуть ли не первая ошибка в любом аудите. Title и meta-description на вашем проекте могут быть легко забракованы «анализатором», потому что тег «слишком длинный» или «слишком короткий». Не стоит расстраиваться. Оптимальная длина тега та, которая конкретно на этой странице позволит включить в него все важные ключевые слова и сделать его привлекательным для пользователя. То, что в ранжировании учитываются только 60-70 символов – миф. В сниппете – да, отображается ограниченное количество символов, но в ранжировании не учитывается. В некоторых случаях просто невозможно написать тег, который бы подошел под эти рамки. Например, если название продаваемого товара «Очиститель воздуха Xiaomi Smartmi Fresh Air System Wall Mounted (VTS6001CN)» уже состоит из 75 символов.

Длина мета-тегов

Длина title этой страницы – 228 символов. Позиция – ТОП-3. Точно ли длина имеет значение?

Что делать: пишите осмысленные title и meta-description с содержанием всех важных ключевых слов из семантического ядра страницы и не оглядывайтесь на их длину.

Анализ только главной страницы

Большинство онлайн-сервисов просят ввести адрес сайта и делают выводы только на основе анализа главной страницы. Учитывая, что на сайте могут быть десятки тысяч страниц (да и еще более важных для SEO, например, в каталоге), назвать такой анализ полным нельзя.

Анализ только главной страницы

Интересно, Ламода знает, что у нее все плохо с SEO?)

Что делать: пользуйтесь парсерами (Screaming Frog, Netpeak, Comparser и аналоги), которые получат исчерпывающие данные обо всех страницах сайта. А выводы на основе этих данных будете делать уже вы сами или специалисты.

ТИЦ, PR, Яндекс.Каталог, DMOZ

ТИЦ=0, PR=0, сайт не присутствует в Яндекс.Каталоге и DMOZ. Такой вывод сейчас можно сделать о любом сайте в интернете, даже не используя анализатор. Потому что:

  • ТИЦ – отменен и заменен параметром ИКС;
  • PR – скрыт от пользователей и его невозможно узнать;
  • Яндекс.Каталог – закрыт;
  • Каталог DMOZ – не обновляется.

Многие сервисы анализа давно не обновляются и все еще выдают значения по несуществующим параметрам.

ТИЦ, PR, Яндекс.Каталог, DMOZ

Маркетплейс Беру не зарегистрирован в DMOZ и Яндекс.Каталоге – не удивительно.

Что делать: не обращать внимание.

Скорость загрузки сайта

Некоторые полезные выводы из анализа всего, что связано со скоростью загрузки сайта, действительно сделать можно. Например, если время ответа сервера обычной HTML-страницы с текстом катастрофически большое (больше 3 секунд), то на это стоит обратить внимание. А если у вас страница со сложным сервисом и большим количеством картинок, которые нельзя убрать без потери качества страницы? Все не так однозначно. Проблема усугубляется тем, что часто в анализ вставляются данные инструмента Google PageSpeed Insights, который легко может выдать низкую оценку даже странице, которая загружается очень быстро. Разберемся по пунктам.

  1. Google PageSpeed Insights – это не сервис для измерения скорости сайта. Он лишь показывает возможности оптимизации скорости загрузки страницы. При этом может существовать множество параметров, которые можно внедрить по его рекомендациям, но какой в этом смысл, если страница и сейчас загружается за 100 мс?
  2. Оценка Google PageSpeed Insights не влияет на ранжирование. Это вытекает из первого пункта, потому что на ранжирование может влиять реальная скорость загрузки, а не относительная оценка оптимизации кода страницы. Чтобы в этом убедиться, достаточно проверить лидеров из вашей тематики – оценки их страниц могут быть еще хуже.

Скорость загрузки сайта

Даже «сильные мира сего» получают плохие оценки.

Что делать: оценивать реальную скорость загрузки сайта, которая влияет на его удобство. Например, с помощью инструментов WebPageTest и GTMetrix.

Анализ ссылочного профиля

Часто в автоматические аудиты вставляется статистика по динамике ссылочной массы сайта. Такие данные могут быть полезны, но только если они часто обновляются и только если сравнивать их с конкурентами в одном и том же сервисе. Проблема в том, что полнота базы ссылок сервисов – разная. Скорость обновления данных – разная. Достоверность – всегда меньше 100%. Ресурсы ограничены, и невозможно иметь данные в реальном времени обо всех существующих сайтах в интернете (а ведь теоретически ссылка на ваш сайт может появиться на любом ресурсе). Статистику ссылок по своему проекту лучше всего смотреть в кабинетах Яндекс и Google. Даже там данные обновляются не сразу, но хотя бы в ресурсах этих компаний и полноте базы сайтов сомневаться не приходится.

Что делать: использовать для анализа конкурентов инструменты с наиболее полной базой данных. На данный момент в порядке убывания это:

  • Ahrefs (платно),
  • NeilPatel Backlinks (бесплатно),
  • Serpstat (ограничено бесплатно),
  • Megaindex (ограничено бесплатно).

Данные сервиса LinkPad являются наименее достоверным и редко обновляются, но почему-то именно их часто используют в автоматических аудитах.

Анализ поисковых запросов и конкурентов

Данные о запросах и конкурентах очень ценны. Их можно и нужно использовать при составлении семантического ядра, при поиске конкурентов, при оценке динамики сайта по конкретным запросам. Однако, существуют 2 нюанса, которые следует обязательно учитывать.

  1. Любой сервис содержит данные не обо всех существующих запросах. Просто невозможно иметь все данные, так как по статистике 40% ежедневных запросов уникальны, они никогда ранее не спрашивались. О какой-либо статистике по таким запросам (если они не станут массовыми и постоянными) речи не идет. Такая неполнота данных приводит к тому, что запросы из узких тематик вообще могут не присутствовать в сервисах. И по проектам из таких тематик можно получить нулевой график (хотя в действительности переходы из поисковых систем есть). Автоматический сервис легко заявит вам, что «все плохо».
  2. Сервисы не классифицируют запросы по нишам. Это приводит к значительным искажениям, когда в статистику по вашему сайту попадает «не ваш» запрос. Пример: сайт по ремонту и обслуживанию компрессоров. Он растет и в какой-то момент даже появляется в ТОП-50 по запросу «компрессоры». Этот ВЧ-запрос сразу же переворачивает картину: по пересечению с этим запросом в списке ваших конкурентов появляются магазины по продаже компрессоров. Их видимость больше (конечно, ведь они занимаются продажей и интент запроса «компрессоры» больше про продажу, нежели про ремонт). Ваша удельная видимость по запросам, которые сервис выбрал релевантными сайту, падает. Анализатор рапортует, что все плохо, и у вас есть запросы вне ТОП-30.

Что делать: собирать полное релевантное сайту семантическое ядро и отслеживать позиции строго по нему. При необходимости отслеживать и конкурентов, но только действительно подходящих по этому же списку запросов. Да, запросы меняются, а также ядро может не содержать каких-то НЧ-запросов, но корректный маркерный список покажет картину точно лучше, чем анализ по всему многообразию не всегда подходящих сайту запросов.

Выводы

К любой автоматической оценке в SEO стоит подходить с осторожностью. Получать информацию из автоматических сервисов можно и нужно, но делать выводы на ее основе должен только специалист.

Лучшее решение для тех, кто не может сделать самостоятельно выводы о тех или иных параметрах – это посмотреть своих конкурентов и проверять по этим же параметрам. У лидера вашей тематики тоже длинный title, плохая оценка в PageSpeed Insights, а по анализу запросов он и не лидер вовсе? При этом вы все также видите своими глазами его в ТОП-3 по всем запросам из вашего семантического ядра? Значит причина неудач вашего проекта не в этих параметрах.

Если бы существовал такой сервис, который делает только правильные выводы, то на его основе бы уже сделали автоматический оптимизатор сайтов. Все бы этим пользовались и все сайты стали бы оптимизированными. Но мест в ТОП-10, как ни странно, только 10, и даже в таком случае без ручной работы специалиста было бы не обойтись ☺.

Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • SEOquick
    38
    комментариев
    0
    читателей
    SEOquick
    больше года назад
    Парсинг сайтов – это самый лучший способ автоматизировать процесс сбора и сохранения информации. Конкурентов всегда нужно мониторить, а не сравнивать свой сайт через автоматический аудит анализатора.
    -
    1
    +
    Ответить
    • Алексей Махметхажиев
      5
      комментариев
      0
      читателей
      Алексей Махметхажиев
      SEOquick
      больше года назад
      Согласен. Заходишь и смотришь свой сайт в анализаторе. Потом измеряешь всех конкурентов и идешь ускорять свой сайт.))
      -
      0
      +
      Ответить
  • Алексей Махметхажиев
    5
    комментариев
    0
    читателей
    Алексей Махметхажиев
    больше года назад
    Коротко - автор статьи не разбирается в предмете скорости загрузки сайтов и пишет на ощущениях.
    Это неправильно.
    Чего только стоит вот это утверждение:
    "Google PageSpeed Insights – это не сервис для измерения скорости сайта."
    Если бы он так написал до ноября 2018 года - это было бы правдой, но после ноября 2018 Гугл стал измерять именно скорость загрузки сайта. То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть ...
    Коротко - автор статьи не разбирается в предмете скорости загрузки сайтов и пишет на ощущениях.
    Это неправильно.
    Чего только стоит вот это утверждение:
    "Google PageSpeed Insights – это не сервис для измерения скорости сайта."
    Если бы он так написал до ноября 2018 года - это было бы правдой, но после ноября 2018 Гугл стал измерять именно скорость загрузки сайта. То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть при замере с мобильного - тоже мало кто знает. Вот если автор статьи посмотрит скорость загрузки с десктопа по гугл, то там данные будут точно сходиться с Пингдом, потому что пингдом замеряет десктоп и на полной комплектации процессора и интернет-соединения.
    Такие дела...
    -
    5
    +
    Ответить
    • Артем Дорофеев
      8
      комментариев
      0
      читателей
      Спасибо за подробные дополнения по PageSpeed Insights, вы правы, он теперь действительно измеряет и скорость, стал на порядок информативнее в сравнении разных сайтов.
      Однако цель данной статьи - рассказать о распространенных "пугалках" в SEO-аудитах. Плохая оценка по PSI - все также не "клеймо" при продвижении сайта, которое нужно бросаться исправлять в первую очередь, иначе ТОП недостижим. Особенно если эту оценку рассматривать в отрыве от типа сайта и конкурентов в...
      Спасибо за подробные дополнения по PageSpeed Insights, вы правы, он теперь действительно измеряет и скорость, стал на порядок информативнее в сравнении разных сайтов.
      Однако цель данной статьи - рассказать о распространенных "пугалках" в SEO-аудитах. Плохая оценка по PSI - все также не "клеймо" при продвижении сайта, которое нужно бросаться исправлять в первую очередь, иначе ТОП недостижим. Особенно если эту оценку рассматривать в отрыве от типа сайта и конкурентов в выдаче.
      -
      9
      +
      Ответить
      • Алексей Махметхажиев
        5
        комментариев
        0
        читателей
        Ну кстати, низкий пейджспид и скорость сайта сразу отрезает мобильный SEO трафик в Гугл. Это уже много раз подтверждено, когда берешь ускоряешь сайт и появляется мобильный трафик обратно. Вот тут как бы клеймо или нет и какая разница, если у конкурентов всё плохо, то что? Значит, что можно тоже терять на этом?)) Нет. Надо выводить в зеленую зону показатель педжспид. Точка.
        -
        1
        +
        Ответить
  • Гость
    0
    комментариев
    0
    читателей
    Гость
    больше года назад
    Спасибо за статью, хорошая. Увидел новый сервис - NeilPatel Backlinks и увы, он не впечатлил. Что подтверждается содержимым статьи ;-)
    -
    2
    +
    Ответить
  • Виталий Климин
    1
    комментарий
    0
    читателей
    Виталий Климин
    больше года назад
    Не знаю, я вот Page audit'ом пользуюсь, меня устраивает полтысячи анализируем параметров
    -
    1
    +
    Ответить
  • Алексей Махметхажиев
    5
    комментариев
    0
    читателей
    Алексей Махметхажиев
    больше года назад
    Дело в том, что уважаемые SEO-специалисты опять недоразобрались в предмете про скорость загрузки.

    ПейджСпид замеряет именно скорость.

    Различия между ними есть и они влияют на результаты проверок, которые вы видите.
    И вот почему.

    Google PageSpeed Insights — использует тротлинг (искусственное замедление) сети и процессора при замере, поэтому замер получается с усредненными данными эмуляции среднестатистического юзера. Lighthouse тоже самое де...
    Дело в том, что уважаемые SEO-специалисты опять недоразобрались в предмете про скорость загрузки.

    ПейджСпид замеряет именно скорость.

    Различия между ними есть и они влияют на результаты проверок, которые вы видите.
    И вот почему.

    Google PageSpeed Insights — использует тротлинг (искусственное замедление) сети и процессора при замере, поэтому замер получается с усредненными данными эмуляции среднестатистического юзера. Lighthouse тоже самое делает, потому что в PSI сейчас используется версия LH 5+.
    То есть при замере используется сеть 3G fast процессор эмулируется как у смартфона Нексус 5.
    ВАЖНО - Гугл специально замедляет условия для замера скорости, чтобы показать вам усредненный результат. Не бывает таких процессоров на телефонах, на котором замеряет GTmetrix или Pingdom. Там всё гораздо скромнее и Гугл об этом знает больше чем мы с вами.

    Gtmetrix — не замедляет замер ни сеть ни процессор. Проверка проходит на максимальном канале интернета и устройстве с максимально мощным процессором, по умолчанию. От этого можно заметить, что замер из Европы из Гугла может показать 12 секунд до интерактива, а гтметрикс покажет 3 секунды. Отсюда все заблуждения про то, что мол, смотрите как быстро показывает GTmetrix и какую "чушь" показывает Гугл.

    Есть еще такие сервисы, которые показывают очень хорошие цифры, но они не имеют ничего общего с правдой.

    Pingdom - тоже не замедляет проц и сеть. Использует очень быстрый сервер для замеров. У него всегда очень классные цифры по замерам, которые с реальностью не имеют ничего общего.

    Loading.express — использует замедление сети, как у Google PSI. Проверка идет для мобильной версии сайта. И замер идет из Москвы. Пока что этот сервис наиболее точно замеряет сайты из России.
    -
    10
    +
    Ответить
    • Trydogolik
      33
      комментария
      0
      читателей
      Trydogolik
      Алексей Махметхажиев
      больше года назад
      ""Loading.express — ...... И замер идет из Москвы.""
      Почему из Москвы? Сайт зарегистрирован из России (Алтайский край).

      На сервере cloudflare.com., а у него везде мелькают штаты prnt.sc/s6g0ij Вряд ли замер из Москвы. Проконсультируете?
      -
      0
      +
      Ответить
    • Trydogolik
      33
      комментария
      0
      читателей
      Trydogolik
      Алексей Махметхажиев
      больше года назад
      "То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть при замере с мобильного...."

      С Европой понятно. Хотя, сам не задумывался. Но, где бы его сервак еще находился как не в Европе.

      Замерять скорость для Mobil версией через 3G - тоже, логически подумать - ДА.  
      Целесообразней замерять на 3G, а не на 4G, когда часть России (про Европу не знаю) на 3G. Есть и вообще Е. Тоже кстати не задумыва...
      "То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть при замере с мобильного...."

      С Европой понятно. Хотя, сам не задумывался. Но, где бы его сервак еще находился как не в Европе.

      Замерять скорость для Mobil версией через 3G - тоже, логически подумать - ДА.  
      Целесообразней замерять на 3G, а не на 4G, когда часть России (про Европу не знаю) на 3G. Есть и вообще Е. Тоже кстати не задумывался над этим.

      Здравствуйте, Алексей.
      Подскажите, от куда эти данные приобрели по поводу каналов, замедления и т.п.? Логика или инфо источник отслеживаете? Нужен для работы.

      Заранее благодарен.
      -
      0
      +
      Ответить
      • Дмитрий Григорян
        7
        комментариев
        0
        читателей
        Дмитрий Григорян
        Trydogolik
        больше года назад
        Все данные берутся всегда у самих создателей. Не нужно читать вшивых форумов и блогов. В данном случае инфа с сайта гугл по данному сервису.

        developers.google.com/speed/docs/insights/v5/about?utm_campaign=PSI&utm_medium=incoming-link&utm_source=PSI&hl=ru-RU

        github.com/GoogleChrome/lighthouse/blob/master/docs/throttling.md
        -
        0
        +
        Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Альманах фатальных ошибок b2b-сайта: как владельцы бизнеса обрекают сайты на бесславное существование. Часть первая
Сергей Ерофеев
3
комментария
0
читателей
Полный профиль
Сергей Ерофеев - Спасибо за комментарий! Вы правы, если за CMS следит заинтересованный профессионал - риски минимальны. Но мы же с вами понимаем, что: а) Не каждый разработчик делает все, как "для себя". б) После создания сайта разработчик редко остается на проекте в) Часто разработчик не является маркетологом. В этом случае принцип "функционал работает и этого достаточно" может быть на первом месте. Мы тоже видели большое количество хороших и качественных проектов на бесплатных CMS, но проблемных проектов мы видели сильно больше. Просто статистика.
Белые и серые методы продвижения. Тренды 2023
sarges
2
комментария
0
читателей
Полный профиль
sarges - Нужно учитывать и тот факт, что со временем методы продвижения меняются и необходимо подстраиваться под новые реалии. Посоветую заглянуть на zenlink.ru/blog/kak-izmenilsja-internet-marketing-za-10-let и почитать статью, там рассказывается о том, как изменился интернет-маркетинг за последние 10 лет, какие сейчас тенденции и какие прогнозы в этой сфере.
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Seodm.ru
3
комментария
0
читателей
Полный профиль
Seodm.ru - Ааа по мне, сам seo специалист, вероятность внедрения необходимого контента на тильда того же блока этапом работы или преимуществ, намного выше чем на движке. А что тильда что движок малый бизнес норм продвигается особо супер разработки не требуется
Как автоматизировать мессенджеры для бизнеса в CRM-системе
Алиналина
1
комментарий
0
читателей
Полный профиль
Алиналина - Кстати да. Но мы зарегались, CRMка реально интересная
Как мы увеличили для клиента трафик из поиска в 7 раз. Кейс
Кирилл Половников
2
комментария
0
читателей
Полный профиль
Кирилл Половников - Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией. Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Кейс MediaNation: увеличили еженедельный трафик автомобильной компании на 50% за год и вышли в топ поиска по 300 запросам
Игорь Скляр
1
комментарий
0
читателей
Полный профиль
Игорь Скляр - Действительно, изначально рост был именно по информационным запросам. Но рост позиций и трафика по информационным запросам положительно повлиял и на связанные позиции по коммерческим запросам и сдвинул видимость с мёртвой точки
Чек-лист: как настроить рекламу в Яндекс Директе и избежать ошибок
Сергей Ильин
2
комментария
0
читателей
Полный профиль
Сергей Ильин - я ваще не туда написал
Как дожать сайт до ТОПа? Выжимаем весь сок из SEO под Яндекс и Google
Фанит
2
комментария
0
читателей
Полный профиль
Фанит - Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
116
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!