×
Россия +7 (495) 139-20-33

«SEO без воды»: стратегии работы со ссылками в 2020 году

Россия +7 (495) 139-20-33
Шрифт:
1 9747

На онлайн-конференции «SEO без воды» Юрий Хаит (Bitkey) рассказал о «Современных стратегиях работы со ссылками». Юрий объяснил, почему ссылки не работают, верить ли показателям DR/UR и TF/CF и как ускорить индексацию доноров. Обо всем этом читайте в нашем обзоре или смотрите видео.

Видеозапись доклада вы найдете в конце статьи.

Почему ссылки не работают

Для проведения ссылочного анализа, как правило, используются следующие инструменты:

  • Ahrefs
  • Majestic
  • Google Search Console
  • Яндекс.Вебмастер
  • SEMrush
  • Serpstat
  • MegaIndex

Для удобства анализа Юрий использует программу Linkbox. Она позволяет работать со ссылками, которые добывают из Ahrefs, Search Console и др. источников, и проверять их работоспособность.

По словам докладчика, типичная проблема, с которой сталкиваются специалисты, анализируя ссылки из Ahrefs – большинство из них не существует в принципе.

Как это происходит: взяли один проект, из которого выгрузили 1411 ссылок. Из них только 719 оказалось проиндексировано. 420 – не в индексе. Остальные отдают недействительный код ответа, либо не проверены.

Глобальная картина со ссылками из Ahrefs: только 1/10 выгружаемых ссылок работают.

 Это связано с тем, что с донора идет более 1 ссылки на станицу-акцептор: одна из них каноническая, одна нет, но фактически это одна и та же ссылка. Часто ссылки нет на месте (удалена вебмастером). Или ссылка находится на сайте, которого уже нет.

5 основных причин, почему ссылки не работают:

  • ссылки нет;
  • одновременно донор noindex + ссылка nofollow;
  • донор 404;
  • дубль;
  • страница низкого качества.

Юрий привел пример анализа ссылок по двум проектам: своего под NDA (на графике показан оранжевым цветом) и конкурента (голубой цвет).

Воронка качества Ahrefs

Анализ ссылочной массы своего проекта (ndaproject4) и сайта конкурента (moving.com)

Ссылочные массы сайтов похожи, но конкурент находится в ТОПе.

Поэтому работу начали с того, что почистили дубли – страницы, которые имеют тот же самый контент, но уже с другим урлом.

При анализе мест размещения ссылок оказалось, что у своего проекта многих ссылок нет. Большинство из них не в индексе. Далее сравнили, какие ссылки с doFollow, какие нет.

В итоге оказалось, что ссылок у своего проекта существенно меньше, чем у конкурента.

Как видят ссылки Ahrefs, Google Search Console и Яндекс.Вебмастер

Далее, чтобы выяснить, какому источнику можно верить, взяли больший объем – 1 млн обратных ссылок на проекты в Рунете – и сравнили, что по ним видит Ahrefs, Search Console и Яндекс.Вебмастер.

Пример анализа ссылок в анализаторах Ahrefs, Google Search Console и Я.Вебмастер

Пример анализа ссылок в анализаторах: Ahrefs, Google Search Console и Я.Вебмастер

На графике серый прямоугольник в конце – это так называемые хорошие ссылки.

Оказалось, что большая часть ссылок, которые изъяты из Ahrefs – мусорные, в них много дублей, страниц, которые отдают ответ, отличный от 200, хороших ссылок остаётся 10%.

У Google Search Console результат получше, хороших ссылок 20%.

У Яндекс.Вебмастера в целом неплохо, но туда попадает очень мало ссылок. Возможно потому, что Яндекс не индексирует отдельные доменные зоны.

Итог Ahrefs vs Google Search Console:

Полнота Ahrefs – 62%, высокая дублицированность. В Ahrefs много ссылок с неиндексируемых страниц, обёрнутых в nofollow.

Google Search Console содержит 24% ссылок, которые отдают ответ 404. И еще столько же ссылок, которых уже нет.

Если ссылка не попала в Search Console, значит с ней что-то не так, хорошая ссылка всегда попадет в GSC.

Примечание: Почему анализаторы отдают разные данные? Связано с тем, что разные роботы-краулеры по-разному считывают AJAX. Например, такую штуку как React умеет читать только Яндекс, соответственно данные по ссылкам, которые есть на странице, применяющей React, есть только в Яндекс.Вебмастере. Если там нет пререндера, то Google эту ссылку не увидит.

Как краулеры видят ссылки

Пример, как краулеры видят ссылки

Как видят ссылки Majestic и Serpstat

Другой важный инструмент в работе со ссылками – Majestic, однако его API стоит $400 в месяц. Majestic использует параметры CF/TF, которые говорят о том, насколько хорошо у сайта донора со ссылками:

  • Citation Flow (CF) показывает, сколько всего ссылок есть на страницу/на сайт, по данным Majestic.
  • Trast Flow (TF) Majestic считает по своей базе хороших сайтов, насколько часто они ссылаются на ваш сайт.

При сравнении данных Ahrefs и Majestic по одному и тому же сайту получены следующие результаты:

  • Ahrefs увидел 5 млн обратных ссылок.
  • Majestic видит только 2 млн.

Это происходит потому, что в Majestic попадает намного меньше дублей. Получаем больше чистых данных.

Это очень неплохой показатель, но там нет свежих данных. Если вы реализовали стратегию крауд-маркетинга в прошлом месяце, то не сможете ее проанализировать. Данные обновляются очень редко, в лучшем случае 1 раз в месяц.

Итог Ahrefs vs Majestic:

  • Дубли: в Majestic их почти нет;
  • Полнота: в Majestic попадает до 86% ссылок (у Ahrefs в среднем – 62%);
  • Свежих данных нет ни там, ни там, что невозможно применять при линкбилдинге.

Еще один инструмент Serpstat. На данный момент в нем почти триллион (952 млрд) ссылок по 168 миллионам доменов. Каждый день Serpstatbot добавляет 2 млрд новых ссылок и обходит 2,5 миллиона доменов в день.

Serpstat считает ссылки с поддоменов внешними. Если на сайте есть линковка между поддоменами, он показывает для вашего домена, что это внешние ссылки.

У Serpstat небольшое количество API-лимитов, они тарифицируют именно ответы, а не запросы, которые вы делаете, получается, чтобы собрать данные по ссылкам нужно затратить много ресурсов. Данные там достаточно грязные с ними трудно работать.

Важные наблюдения

Ссылки с высоким Trust flow – меньше 1 млн хорошо коррелируют с положительной динамикой позиций.

В YMYL-тематиках (медицина, юриспруденция, финансы), где контент может повлиять на жизнь и здоровье людей, Google стремится давать правдивые ответы, поэтому использует такие параметры, как авторитетность ресурса. Для всех остальных (не-YMYL) тематик оказывается, что низкокачественные ссылки работают так же, как и высококачественные.

Cсылки, которые дают Advodka, Keys.so pr-cy и другие анализаторы НЕ надо закрывать в disavow. Часть из них – хорошие. Ими можно бустить страницы доноров.

Как индексировать ссылки

Раньше проставив ссылку на страницу донора, мы сразу отправляли ее в addURL. Теперь инструмент от Google работать перестал.

  • Twitter: не работает. Индексируется менее 3% ссылок.
  • Для ссылок Tier2, Tier3: годятся любые инструменты типа Xrumer, Senuke Xcr и т.д., но избавляться от footprint-ов дорого для целей индексации.
  • Дорвеи: хороший метод, но дорого и одни те же домены нельзя использовать для индексации постоянно, т.к. они быстро попадают в бан.
  • 301: http://linkbox.pro/ru/google-addurl (несколько трастовых сайтов без футпринтов – добавляем URL с редиректом в GSC и отправляем на индексацию).

Хотя это странно обходить Google страницы, которые отдают 301, но робот обходит эту страницу, так повышается вероятность добавления ее в поиск. Получается классный инструмент. НО у нас нет доступа к самим донорам, откуда пришел редирект.

Выводы

  • Качественные метрики ссылок меньше коррелируют с позициями, чем количественные.
  • Инструменты ссылочного анализа, основанные на big data, содержат много неактуальных, грязных данных и не подходят для анализа работы линкбилдеров.
  • Проиндексировать свои ссылки дешевле, чем купить новые.

Видеозапись доклада

Презентация доклада доступна по ссылке.

Читайте также:

(Голосов: 7, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Максим
    2
    комментария
    0
    читателей
    Максим
    5 дней назад
    Ссылки работают в я ндеае тоже по вашим исследованиям?
    -
    0
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
15
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
demimurych
8
комментариев
0
читателей
Полный профиль
demimurych - о господи. это для регионального сайта? в яндексе? где у сайта по региону конкурентов меньше чем выдачи на двух страницах из которых перваш это реклама москвы? потешно ей богу. ктото чего то не понеимает.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
Зачем подменять контент на сайте: разбираем инструмент и развенчиваем мифы
Дмитрий Сульман
4
комментария
0
читателей
Полный профиль
Дмитрий Сульман - Все верно, об этом я и говорю. У крупных компаний есть много данных и они имеют доступ к дорогим технологиям и решениям для персонализации контента. Топовые западные сервисы для персонализации, такие как RichRelevance или Dynamic Yield, стоят от нескольких тысяч до десятков тысяч долларов в месяц. Понятно, что малый бизнес не может себе этого позволить. Да даже если бы чисто теоретически и мог, то это вряд ли бы имело хоть какой-то смысл. Во-первых, у малого бизнеса недостаточно данных, чтобы подобные алгоритмы персонализации начали эффективно работать, а во-вторых, тот профит, который МСБ получит от персонализации, никогда не покроет таких расходов. Мы же предлагаем решение, доступное как раз для малого и среднего бизнеса. При этом наше решение комплексное: МультиЧат - это одновременно и инструмент для персонализации, и для коммуникации.
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Монетизируйте свой сайт вместе с VIZTROM
VIZTROM
3
комментария
0
читателей
Полный профиль
VIZTROM - Добрый день! Так как мы сейчас работаем в приватном режиме, Вы врятли можете объективно оценить нашу рекламную площадку. У нас будет официальный запуск 3 марта для вебмастеров. Приглашаем Вас присоединиться к нам и лично посмотреть наш функционал.
Digital-разговор: Михаил Шакин про SEO, Google и заработок в интернете
Анна Макарова
368
комментариев
0
читателей
Полный профиль
Анна Макарова - Подготовим ) Пока предлагаю почитать интервью с Денисом Нарижным из той же серии. Там стенограмма =) www.seonews.ru/interviews/digital-razgovor-denis-narizhnyy-pro-ukhod-iz-seo-i-zarabotok-na-partnerkakh/
Как удвоить выручку за счет продвижения в поиске. Кейс coffee-butik.ru
Максим Боровой
3
комментария
0
читателей
Полный профиль
Максим Боровой - Последний вопрос (извиняюсь за количество) - почему на "В корзину" стоит Nofollow. Осознанно для распределение весов?
Кейс Hansa: как увеличить органический трафик в 1,5 раза
Алексей Порфирьев
3
комментария
0
читателей
Полный профиль
Алексей Порфирьев - Спасибо за замечание, о данной проблеме известно, но она не стоит в порядке приоритетных. Вопрос, на самом деле, дискуссионный. В тематике конкуренция не настолько велика, а в топе выдачи часто встречаются сайты с более серьёзными техническими проблемами. По этому, именно в статьях, более важно работать над релевантностью контента, отношением времени пользователя на странице к уровню доскрола, и различным пользовательским функционалом (рейтинг материала, просмотры и т. п.).
Автоматические SEO-аудиты: как напугать некорректными выводами
SEOquick
38
комментариев
0
читателей
Полный профиль
SEOquick - Парсинг сайтов – это самый лучший способ автоматизировать процесс сбора и сохранения информации. Конкурентов всегда нужно мониторить, а не сравнивать свой сайт через автоматический аудит анализатора.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
368
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
139
Комментариев
121
Комментариев
108
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
85
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!