×
Россия +7 (495) 139-20-33

Автоматические SEO-аудиты: как напугать некорректными выводами

Россия +7 (495) 139-20-33
Шрифт:
6 23037

Существует масса автоматических анализаторов SEO сайта. Достаточно вбить адрес онлайн – и вы получаете огромный перечень различных параметров, обычно разделенных на примитивные «хорошо», «плохо», «для информации». Безоговорочно следовать таким рекомендациям точно не стоит, а принимать во внимание – с большой осторожностью. Основные варианты неправильной интерпретации результатов таких анализов мы рассмотрим в этой статье.

Длина мета-тегов

Это чуть ли не первая ошибка в любом аудите. Title и meta-description на вашем проекте могут быть легко забракованы «анализатором», потому что тег «слишком длинный» или «слишком короткий». Не стоит расстраиваться. Оптимальная длина тега та, которая конкретно на этой странице позволит включить в него все важные ключевые слова и сделать его привлекательным для пользователя. То, что в ранжировании учитываются только 60-70 символов – миф. В сниппете – да, отображается ограниченное количество символов, но в ранжировании не учитывается. В некоторых случаях просто невозможно написать тег, который бы подошел под эти рамки. Например, если название продаваемого товара «Очиститель воздуха Xiaomi Smartmi Fresh Air System Wall Mounted (VTS6001CN)» уже состоит из 75 символов.

Длина мета-тегов

Длина title этой страницы – 228 символов. Позиция – ТОП-3. Точно ли длина имеет значение?

Что делать: пишите осмысленные title и meta-description с содержанием всех важных ключевых слов из семантического ядра страницы и не оглядывайтесь на их длину.

Анализ только главной страницы

Большинство онлайн-сервисов просят ввести адрес сайта и делают выводы только на основе анализа главной страницы. Учитывая, что на сайте могут быть десятки тысяч страниц (да и еще более важных для SEO, например, в каталоге), назвать такой анализ полным нельзя.

Анализ только главной страницы

Интересно, Ламода знает, что у нее все плохо с SEO?)

Что делать: пользуйтесь парсерами (Screaming Frog, Netpeak, Comparser и аналоги), которые получат исчерпывающие данные обо всех страницах сайта. А выводы на основе этих данных будете делать уже вы сами или специалисты.

ТИЦ, PR, Яндекс.Каталог, DMOZ

ТИЦ=0, PR=0, сайт не присутствует в Яндекс.Каталоге и DMOZ. Такой вывод сейчас можно сделать о любом сайте в интернете, даже не используя анализатор. Потому что:

  • ТИЦ – отменен и заменен параметром ИКС;
  • PR – скрыт от пользователей и его невозможно узнать;
  • Яндекс.Каталог – закрыт;
  • Каталог DMOZ – не обновляется.

Многие сервисы анализа давно не обновляются и все еще выдают значения по несуществующим параметрам.

ТИЦ, PR, Яндекс.Каталог, DMOZ

Маркетплейс Беру не зарегистрирован в DMOZ и Яндекс.Каталоге – не удивительно.

Что делать: не обращать внимание.

Скорость загрузки сайта

Некоторые полезные выводы из анализа всего, что связано со скоростью загрузки сайта, действительно сделать можно. Например, если время ответа сервера обычной HTML-страницы с текстом катастрофически большое (больше 3 секунд), то на это стоит обратить внимание. А если у вас страница со сложным сервисом и большим количеством картинок, которые нельзя убрать без потери качества страницы? Все не так однозначно. Проблема усугубляется тем, что часто в анализ вставляются данные инструмента Google PageSpeed Insights, который легко может выдать низкую оценку даже странице, которая загружается очень быстро. Разберемся по пунктам.

  1. Google PageSpeed Insights – это не сервис для измерения скорости сайта. Он лишь показывает возможности оптимизации скорости загрузки страницы. При этом может существовать множество параметров, которые можно внедрить по его рекомендациям, но какой в этом смысл, если страница и сейчас загружается за 100 мс?
  2. Оценка Google PageSpeed Insights не влияет на ранжирование. Это вытекает из первого пункта, потому что на ранжирование может влиять реальная скорость загрузки, а не относительная оценка оптимизации кода страницы. Чтобы в этом убедиться, достаточно проверить лидеров из вашей тематики – оценки их страниц могут быть еще хуже.

Скорость загрузки сайта

Даже «сильные мира сего» получают плохие оценки.

Что делать: оценивать реальную скорость загрузки сайта, которая влияет на его удобство. Например, с помощью инструментов WebPageTest и GTMetrix.

Анализ ссылочного профиля

Часто в автоматические аудиты вставляется статистика по динамике ссылочной массы сайта. Такие данные могут быть полезны, но только если они часто обновляются и только если сравнивать их с конкурентами в одном и том же сервисе. Проблема в том, что полнота базы ссылок сервисов – разная. Скорость обновления данных – разная. Достоверность – всегда меньше 100%. Ресурсы ограничены, и невозможно иметь данные в реальном времени обо всех существующих сайтах в интернете (а ведь теоретически ссылка на ваш сайт может появиться на любом ресурсе). Статистику ссылок по своему проекту лучше всего смотреть в кабинетах Яндекс и Google. Даже там данные обновляются не сразу, но хотя бы в ресурсах этих компаний и полноте базы сайтов сомневаться не приходится.

Что делать: использовать для анализа конкурентов инструменты с наиболее полной базой данных. На данный момент в порядке убывания это:

  • Ahrefs (платно),
  • NeilPatel Backlinks (бесплатно),
  • Serpstat (ограничено бесплатно),
  • Megaindex (ограничено бесплатно).

Данные сервиса LinkPad являются наименее достоверным и редко обновляются, но почему-то именно их часто используют в автоматических аудитах.

Анализ поисковых запросов и конкурентов

Данные о запросах и конкурентах очень ценны. Их можно и нужно использовать при составлении семантического ядра, при поиске конкурентов, при оценке динамики сайта по конкретным запросам. Однако, существуют 2 нюанса, которые следует обязательно учитывать.

  1. Любой сервис содержит данные не обо всех существующих запросах. Просто невозможно иметь все данные, так как по статистике 40% ежедневных запросов уникальны, они никогда ранее не спрашивались. О какой-либо статистике по таким запросам (если они не станут массовыми и постоянными) речи не идет. Такая неполнота данных приводит к тому, что запросы из узких тематик вообще могут не присутствовать в сервисах. И по проектам из таких тематик можно получить нулевой график (хотя в действительности переходы из поисковых систем есть). Автоматический сервис легко заявит вам, что «все плохо».
  2. Сервисы не классифицируют запросы по нишам. Это приводит к значительным искажениям, когда в статистику по вашему сайту попадает «не ваш» запрос. Пример: сайт по ремонту и обслуживанию компрессоров. Он растет и в какой-то момент даже появляется в ТОП-50 по запросу «компрессоры». Этот ВЧ-запрос сразу же переворачивает картину: по пересечению с этим запросом в списке ваших конкурентов появляются магазины по продаже компрессоров. Их видимость больше (конечно, ведь они занимаются продажей и интент запроса «компрессоры» больше про продажу, нежели про ремонт). Ваша удельная видимость по запросам, которые сервис выбрал релевантными сайту, падает. Анализатор рапортует, что все плохо, и у вас есть запросы вне ТОП-30.

Что делать: собирать полное релевантное сайту семантическое ядро и отслеживать позиции строго по нему. При необходимости отслеживать и конкурентов, но только действительно подходящих по этому же списку запросов. Да, запросы меняются, а также ядро может не содержать каких-то НЧ-запросов, но корректный маркерный список покажет картину точно лучше, чем анализ по всему многообразию не всегда подходящих сайту запросов.

Выводы

К любой автоматической оценке в SEO стоит подходить с осторожностью. Получать информацию из автоматических сервисов можно и нужно, но делать выводы на ее основе должен только специалист.

Лучшее решение для тех, кто не может сделать самостоятельно выводы о тех или иных параметрах – это посмотреть своих конкурентов и проверять по этим же параметрам. У лидера вашей тематики тоже длинный title, плохая оценка в PageSpeed Insights, а по анализу запросов он и не лидер вовсе? При этом вы все также видите своими глазами его в ТОП-3 по всем запросам из вашего семантического ядра? Значит причина неудач вашего проекта не в этих параметрах.

Если бы существовал такой сервис, который делает только правильные выводы, то на его основе бы уже сделали автоматический оптимизатор сайтов. Все бы этим пользовались и все сайты стали бы оптимизированными. Но мест в ТОП-10, как ни странно, только 10, и даже в таком случае без ручной работы специалиста было бы не обойтись ☺.

(Голосов: 40, Рейтинг: 4.28)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • SEOquick
    38
    комментариев
    0
    читателей
    SEOquick
    2 месяца назад
    Парсинг сайтов – это самый лучший способ автоматизировать процесс сбора и сохранения информации. Конкурентов всегда нужно мониторить, а не сравнивать свой сайт через автоматический аудит анализатора.
    -
    0
    +
    Ответить
  • Алексей Махметхажиев
    2
    комментария
    0
    читателей
    Алексей Махметхажиев
    2 месяца назад
    Коротко - автор статьи не разбирается в предмете скорости загрузки сайтов и пишет на ощущениях.
    Это неправильно.
    Чего только стоит вот это утверждение:
    "Google PageSpeed Insights – это не сервис для измерения скорости сайта."
    Если бы он так написал до ноября 2018 года - это было бы правдой, но после ноября 2018 Гугл стал измерять именно скорость загрузки сайта. То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть ...
    Коротко - автор статьи не разбирается в предмете скорости загрузки сайтов и пишет на ощущениях.
    Это неправильно.
    Чего только стоит вот это утверждение:
    "Google PageSpeed Insights – это не сервис для измерения скорости сайта."
    Если бы он так написал до ноября 2018 года - это было бы правдой, но после ноября 2018 Гугл стал измерять именно скорость загрузки сайта. То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть при замере с мобильного - тоже мало кто знает. Вот если автор статьи посмотрит скорость загрузки с десктопа по гугл, то там данные будут точно сходиться с Пингдом, потому что пингдом замеряет десктоп и на полной комплектации процессора и интернет-соединения.
    Такие дела...
    -
    3
    +
    Ответить
    • Артем Дорофеев
      1
      комментарий
      0
      читателей
      Спасибо за подробные дополнения по PageSpeed Insights, вы правы, он теперь действительно измеряет и скорость, стал на порядок информативнее в сравнении разных сайтов.
      Однако цель данной статьи - рассказать о распространенных "пугалках" в SEO-аудитах. Плохая оценка по PSI - все также не "клеймо" при продвижении сайта, которое нужно бросаться исправлять в первую очередь, иначе ТОП недостижим. Особенно если эту оценку рассматривать в отрыве от типа сайта и конкурентов в...
      Спасибо за подробные дополнения по PageSpeed Insights, вы правы, он теперь действительно измеряет и скорость, стал на порядок информативнее в сравнении разных сайтов.
      Однако цель данной статьи - рассказать о распространенных "пугалках" в SEO-аудитах. Плохая оценка по PSI - все также не "клеймо" при продвижении сайта, которое нужно бросаться исправлять в первую очередь, иначе ТОП недостижим. Особенно если эту оценку рассматривать в отрыве от типа сайта и конкурентов в выдаче.
      -
      6
      +
      Ответить
  • Гость
    21
    комментарий
    0
    читателей
    Гость
    2 месяца назад
    Спасибо за статью, хорошая. Увидел новый сервис - NeilPatel Backlinks и увы, он не впечатлил. Что подтверждается содержимым статьи ;-)
    -
    1
    +
    Ответить
  • Виталий Климин
    1
    комментарий
    0
    читателей
    Виталий Климин
    2 месяца назад
    Не знаю, я вот Page audit'ом пользуюсь, меня устраивает полтысячи анализируем параметров
    -
    0
    +
    Ответить
  • Алексей Махметхажиев
    2
    комментария
    0
    читателей
    Алексей Махметхажиев
    2 месяца назад
    Дело в том, что уважаемые SEO-специалисты опять недоразобрались в предмете про скорость загрузки.

    ПейджСпид замеряет именно скорость.

    Различия между ними есть и они влияют на результаты проверок, которые вы видите.
    И вот почему.

    Google PageSpeed Insights — использует тротлинг (искусственное замедление) сети и процессора при замере, поэтому замер получается с усредненными данными эмуляции среднестатистического юзера. Lighthouse тоже самое де...
    Дело в том, что уважаемые SEO-специалисты опять недоразобрались в предмете про скорость загрузки.

    ПейджСпид замеряет именно скорость.

    Различия между ними есть и они влияют на результаты проверок, которые вы видите.
    И вот почему.

    Google PageSpeed Insights — использует тротлинг (искусственное замедление) сети и процессора при замере, поэтому замер получается с усредненными данными эмуляции среднестатистического юзера. Lighthouse тоже самое делает, потому что в PSI сейчас используется версия LH 5+.
    То есть при замере используется сеть 3G fast процессор эмулируется как у смартфона Нексус 5.
    ВАЖНО - Гугл специально замедляет условия для замера скорости, чтобы показать вам усредненный результат. Не бывает таких процессоров на телефонах, на котором замеряет GTmetrix или Pingdom. Там всё гораздо скромнее и Гугл об этом знает больше чем мы с вами.

    Gtmetrix — не замедляет замер ни сеть ни процессор. Проверка проходит на максимальном канале интернета и устройстве с максимально мощным процессором, по умолчанию. От этого можно заметить, что замер из Европы из Гугла может показать 12 секунд до интерактива, а гтметрикс покажет 3 секунды. Отсюда все заблуждения про то, что мол, смотрите как быстро показывает GTmetrix и какую "чушь" показывает Гугл.

    Есть еще такие сервисы, которые показывают очень хорошие цифры, но они не имеют ничего общего с правдой.

    Pingdom - тоже не замедляет проц и сеть. Использует очень быстрый сервер для замеров. У него всегда очень классные цифры по замерам, которые с реальностью не имеют ничего общего.

    Loading.express — использует замедление сети, как у Google PSI. Проверка идет для мобильной версии сайта. И замер идет из Москвы. Пока что этот сервис наиболее точно замеряет сайты из России.
    -
    7
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
15
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
demimurych
8
комментариев
0
читателей
Полный профиль
demimurych - о господи. это для регионального сайта? в яндексе? где у сайта по региону конкурентов меньше чем выдачи на двух страницах из которых перваш это реклама москвы? потешно ей богу. ктото чего то не понеимает.
Зачем подменять контент на сайте: разбираем инструмент и развенчиваем мифы
Дмитрий Сульман
4
комментария
0
читателей
Полный профиль
Дмитрий Сульман - Все верно, об этом я и говорю. У крупных компаний есть много данных и они имеют доступ к дорогим технологиям и решениям для персонализации контента. Топовые западные сервисы для персонализации, такие как RichRelevance или Dynamic Yield, стоят от нескольких тысяч до десятков тысяч долларов в месяц. Понятно, что малый бизнес не может себе этого позволить. Да даже если бы чисто теоретически и мог, то это вряд ли бы имело хоть какой-то смысл. Во-первых, у малого бизнеса недостаточно данных, чтобы подобные алгоритмы персонализации начали эффективно работать, а во-вторых, тот профит, который МСБ получит от персонализации, никогда не покроет таких расходов. Мы же предлагаем решение, доступное как раз для малого и среднего бизнеса. При этом наше решение комплексное: МультиЧат - это одновременно и инструмент для персонализации, и для коммуникации.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
Монетизируйте свой сайт вместе с VIZTROM
VIZTROM
3
комментария
0
читателей
Полный профиль
VIZTROM - Добрый день! Так как мы сейчас работаем в приватном режиме, Вы врятли можете объективно оценить нашу рекламную площадку. У нас будет официальный запуск 3 марта для вебмастеров. Приглашаем Вас присоединиться к нам и лично посмотреть наш функционал.
Как удвоить выручку за счет продвижения в поиске. Кейс coffee-butik.ru
Максим Боровой
3
комментария
0
читателей
Полный профиль
Максим Боровой - Последний вопрос (извиняюсь за количество) - почему на "В корзину" стоит Nofollow. Осознанно для распределение весов?
Digital-разговор: Михаил Шакин про SEO, Google и заработок в интернете
Анна Макарова
368
комментариев
0
читателей
Полный профиль
Анна Макарова - Подготовим ) Пока предлагаю почитать интервью с Денисом Нарижным из той же серии. Там стенограмма =) www.seonews.ru/interviews/digital-razgovor-denis-narizhnyy-pro-ukhod-iz-seo-i-zarabotok-na-partnerkakh/
Почему вы торгуетесь за показы, даже если платите за клики
Константин Требунских
3
комментария
0
читателей
Полный профиль
Константин Требунских - Дмитрий, спасибо за комментарий, хорошие замечания!) 1. "Какая-то подмена понятий. CPM у “Original Works” взлетает не от того, что у них РАВНАЯ цена клика, а оттого, что вы "с потолка" поставили ему CPC в 2 раза выше, чем был. Логично, что и CPM в 2 раза увеличился (см. формулу выше). Если бы вместо 5 вы всем решили поставить 2 или 1.5, то он бы наоборот уменьшился." Вы правы, что CPM уменьшился бы. В первой и второй табличке берем одинаковое количество показов (именно за них мы платим сначала) и считаем данные, в том числе CPC. Мы поставили рекламодателей в одинаковые условия и посмотрели их эффективность в разрезе цены клика при одинаковом количестве показов. А затем изменился аукцион, и, взяв получившиеся данные по кликам и CTR, мы поставили рекламодателей тоже в одинаковое положение, но уже по цене клика, ведь мы теперь за него платим. Посчитали эффективность в разрезе уже CPM. Тут если и есть подмена понятий, то она точно не моя, а рекламных систем, потому и обозначена, как "ход конем" :) 2. "Ок, смотрим таблички "как оно было" и "как оно стало". Было: система суммарно за 2 000 денег показала рекламу 4 000 раз. Стало: система суммарно за 2 000 денег показала рекламу 13 500 раз. Сомнительный профит для системы." Вы правы, именно поэтому для рекламодателей с низким CTR ставка будет выше, чем для рекламодателей с высоким CTR. Просто чтобы система окупилась. Потому что, системе выгодно продавать показы тем, у кого кликов будет больше (ведь они платят за клик). По факту реальные цены за клик в аукционе будут как в таблице 2. Но ранжирование системы проводят по таблице 5.
Кейс Hansa: как увеличить органический трафик в 1,5 раза
Алексей Порфирьев
3
комментария
0
читателей
Полный профиль
Алексей Порфирьев - Спасибо за замечание, о данной проблеме известно, но она не стоит в порядке приоритетных. Вопрос, на самом деле, дискуссионный. В тематике конкуренция не настолько велика, а в топе выдачи часто встречаются сайты с более серьёзными техническими проблемами. По этому, именно в статьях, более важно работать над релевантностью контента, отношением времени пользователя на странице к уровню доскрола, и различным пользовательским функционалом (рейтинг материала, просмотры и т. п.).
Автоматические SEO-аудиты: как напугать некорректными выводами
SEOquick
38
комментариев
0
читателей
Полный профиль
SEOquick - Парсинг сайтов – это самый лучший способ автоматизировать процесс сбора и сохранения информации. Конкурентов всегда нужно мониторить, а не сравнивать свой сайт через автоматический аудит анализатора.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
368
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
139
Комментариев
121
Комментариев
108
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
85
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!