×
Россия +7 (495) 139-20-33

Как выйти из-под фильтра? Снимаем санкции Google за входящие ссылки

Россия +7 (495) 139-20-33
Шрифт:
8 10668

Редакция SEOnews запустила новый проект «Как выйти из-под фильтра?», в рамках которого крупнейшие SEO-компании и опытные специалисты будут рассказывать о своем опыте борьбы с санкциями поисковых систем.

Представляем вам кейс SEO-специалиста Андрея Гриня по выводу сайта из-под санкций Google за входящие ссылки.

Санкции Google за входящие ссылки — проблема, с которой сталкивалось, пожалуй, большинство SEO-специалистов. В 2014 году я начал помогать другим оптимизатором бороться с этой проблемой, и на данный момент у меня уже свыше 120 проектов. Среди них были как сайты с ручными санкциями за ссылки, так и ресурсы, которые потеряли трафик в Google и при этом не получили извещение о санкциях (классический Пингвин без извещения).

Сегодня я хочу поделиться одним из моих кейсов по снятию фильтра Google за входящие ссылки.

Данные по сайту:

  • Тематика: продажа готовых бизнес-планов.
  • Возраст на момент работы с сайтом: 5,5 лет.
  • Примерное количество покупных ссылок: 3000.
  • Характер ссылок: в 90% случаев это ссылки из gogetlinks.net и miralinks.ru.
  • Общее количество ссылок: 4500 (с округлением). Из непокупных ссылок — это различные каталоги, доски, сервисы анализа сайтов, ну и естественных ссылок тоже прилично было.
  • Трафик до санкций из Google: 200 уникальных посетителей в день.
  • Трафик после санкций Google: 50 уникальных посетителей в день.

На графике это выглядит так:

1.png

Что было сделано

Первым делом нужно было собрать все возможные ссылки на сайт. Для этого были задействованы следующие источники:

  1. Выгрузки ссылок со всех бирж,
  2. Из панелей для вебмастера Яндекса и Google,
  3. linkpad.ru,
  4. backlink.page-weight.ru.

Из всех ссылок выделены домены, далее список очищен от дублей. Вышло 4574 ссылочных донора.

Далее данный список был загружен на анализ в сервис Fast Trust. Для каждого сайта собирались данные:

  1. Траст.
  2. Спам.
  3. Количество входящих уникальных ссылок.
  4. Количество исходящих уникальных ссылок.
  5. Дневная посещаемость по liveinternet (в случае если счетчик открытый).
  6. тИЦ.
  7. PR.

На сегодняшний день в программе еще появилась проверка на фильтр АГС. Этот параметр обязательно нужно использовать и отклонять все АГС-ные доноры.

На основе вышеописанных параметров вычисляем плохие доноры. Нужно смотреть на совокупность параметров. Например, у сайта может быть приличный «Спам», но и «Траст» при этом тоже очень большой, такие ссылки лучше не отклонять.

Я помечал как плохие сайты со спамом выше 5 и трастом ниже 10. При этом делал скидку тем, у кого большой траст и спам в пределах 5–15.

Примечание: теперь я все чаще поднимаю планку параметра «Спам» и отклоняю почти все, что выше двух. Этого требует нынешний алгоритм санкций, иначе просто не выходит снять фильтр.

Далее в совокупности с другими параметрами я отметаю тех, у кого входящих ссылок значительно меньше, чем исходящих. Также в зону подозрения попадают сайты с мизерной посещаемостью и нулевыми параметрами тИЦ и PR.

Повторюсь, принимать решение о том, включать домен в файл отклонения или нет, нужно по совокупности параметров. Так, если у сайта нулевой тИЦ или посещаемость 5 уников в сутки — это еще не значит, что с него нужно тут же отклонять ссылки.

В целом у нас стоит задача избавиться от фильтра, но при этом по максимуму сохранить свою ссылочную массу. Иначе можно было бы просто отклонить все.

После того как я отметил плохие доноры, нужно сделать файл вида .txt:

  • domain:site1.ru
  • domain:site2.ru
  • domain:site3.ru
  • domain:site4.ru

Для формирования такого списка Excel в помощь.

Кодировка файла должна быть UTF-8 без BOM, так советуют сотрудники Google. Между domain: и самим доменом пробела быть не должно.

Далее я загрузил файл в инструмент отклонения https://www.google.com/webmasters/tools/disavow-links-main.

Появилось оповещение об успешной загрузке.

В случае проблем с файлом Google вас известит!

Далее написал запрос на пересмотр по адресу https://www.google.com/webmasters/tools/reconsideration?hl=ru&pli=1.

Точный текст, конечно же, не помню. Письмо было банальное, что-то вроде: «Собрали все ссылки, что ведут на наш сайт, проанализировали их и отклонили действие ссылок с сайтов плохого качества».

Спустя недели 2 пришел ответ о том, что санкции сняты! Давайте посмотрим, как это отразилось на посещаемости из Google

2.png

Как видим, трафик успешно восстановился.

От всех ссылающихся доноров было отклонено 91,9%.

В случае отрицательного ответа от Google приходят примеры плохих ссылок. Добавляем эти примеры в файл для отклонения (всегда нужно именно добавлять, а не загружать новый) + новые (повышаем планку качества при фильтрации). Иногда доходило до 5–6 итераций и отклонения 98% ссылок, чтобы снять санкции.

Но не всегда трафик сразу же растет после съема фильтра. Во-первых, полноценные выводы стоит делать спустя 2 месяца после избавления от санкций. Во-вторых, не забывайте, что кроме ссылочных факторов есть еще внутренние, коммерческие и поведенческие. Работайте над всем сайтом комплексно.

Хочу добавить, что чем меньше разбавлен анкор-лист, тем больше вероятность получить штраф.

На сегодняшний день правила игры относительно данного фильтра несколько поменялись. Замечено, что все же лучше по возможности снимать ссылки, а не отклонять. И по последним моим проектам при отрицательном ответе от Google почему-то перестали приходить примеры некачественных ссылок — это плохо, но работать можно.

Читайте другие кейсы по выводу сайтов из-под санкций от экспертов рынка:

Как выйти из-под фильтра? Кейс «Ашманов и партнеры» по выводу сразу двух сайтов из-под «Минусинска»

Как выйти из-под фильтра? Кейс «Текарт» по борьбе с фильтром Google за некачественную ссылочную массу

Как выйти из-под фильтра? Опыт SiteClinic по борьбе с санкциями за переоптимизацию


(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Гость
    больше года назад
    Вы пишете: "Этот параметр обязательно нужно использовать и отклонять все АГС-ные доноры." - вопрос почему? Сайты периодически могут ловить АГС постфактум, например... в режиме реального времени не отследить. Для чего такие сложности?
    -
    -2
    +
    Ответить
    • Андрей Гринь
      3
      комментария
      0
      читателей
      Андрей Гринь
      Гость
      больше года назад
      "вопрос почему?"
      - потому, что сайты под АГС - это Г-сайты - вот и все.

      "Для чего такие сложности?"
      - ничего сложного тут нет. Просто находим АГСников-доноров для зафильтрованного сайта и отказываемся от них. Такие ссылки лучше снимать, а не отклонять.
      -
      3
      +
      Ответить
  • Igor Bakalov
    31
    комментарий
    0
    читателей
    Igor Bakalov
    больше года назад
    Каждый раз одно и тоже, собрали все ссылки, пробили фаст-трастом/х-тулом, сняли/отклонили "плохие", гугл отменил фильтр.
    -
    6
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
#SEOnews14: мы празднуем – вы получаете подарки!
Анна Макарова
0
комментариев
0
читателей
Полный профиль
Анна Макарова - Гость, добрый день! С победителями мы связывались сразу после розыгрыша. Если мы вам не написали, значит, ваш номер не выпал. Но не расстраивайтесь, у нас обязательно будут новые розыгрыши!
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
9
комментариев
0
читателей
Полный профиль
Михаил Мухин - Дожидаться 100 попыток не будем - не дождемся :) Подведем итоги и опубликуем решение 13 Декабря
Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
Георгий
1
комментарий
0
читателей
Полный профиль
Георгий - Все что рекомендуется в этой статье есть у w.tools. Ни разу не пожалел что подключился. Своя CDN сеть, кеш статики и динамики, минификация js\css и кешируемого html, оптимизация всех типов картинок и еще куча всего полезного. Сайт летает и я не знаю проблем. Могу рекомендовать от души.
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Ann Yaroshenko
5
комментариев
0
читателей
Полный профиль
Ann Yaroshenko - Дмитрий, добрый день! Если вы проставили на странице с автозапчастями rel=canonical ( а я вижу в коде, что не проставили) или в HTTP хедере, то бот, как правило: выберит ту страницу главной, которую вы указали в rel=canonical ссылке. Eсли же вы этого не сделали, то бот сам выберит оригинал (алгоритмы, по которым бот это делает, скрыты Googl-ом)
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
«Аудит, чтобы ты заплакала…», или Что делать, когда получил сторонний аудит сайта
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Воообще, на самом деле здесь двоякое впечатление от таких аудитов. Конечно, для полного глубокого анализа и подготовки рекомендаций по сайту - нужны доступы к системам аналитики и инструментам вебмастера. Но если оценивать подобные аудиты с точки зрения чистого SEO (которое все больше и больше становится лишь малой частью digital-маркетинга, лишь одним из каналов) - они имеют место быть. Но с оговоркой, что они сделаны с учетом анализа конкурентов/отрасли. Современные инструменты и алгоритмы позволяют делать это маркетологам в автоматическом режиме, и даже давать рекомендации - возможностями машинного обучения уже никого не удивишь. Да, полное перечисление "мифического" списка ошибок, построенного по предикативным правилам, да еще и с учетом устаревших особенностей ПС - это явный признак некачественного аудита. В первую очередь потому, что эти "ошибки" следует рассматривать в качестве рекомендаций от ПС (как и говорится в справочнике вебмастера у Яндекса/Google). Однако если эти данные даются с отсылкой на данные о конкурентах, об отрасли, используются методы ML и Natural language processing для обработки исходных данных, кластеризации запросов, классификации страниц/запросов/сайтов, определения структуры документа - такие отчеты имеют право на существование. Но ключевым моментом является то, что подобные инструменты достаточно сложны в разработке, а значит требуют квалифицированных специалистов для их разработки. Которых просто нет у студий рассылающих подобные "сео отчеты". Подобные отчеты по "ошибках" тоже неплохой источник информации, но лишь на 0 этапе анализа сайта. И в принципе, теоретически, возможно почти полное составление "хороших аудитов" без участия маркетолога, на основе лишь открытых данных сайта/внешних источников, но только при соответствующем применении всех современных возможностей анализа данных и рекомендательных систем. И в любом случае подобный "хороший отчет" требует конечного заключения от эксперта.
BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита
Kosta Bankovski
4
комментария
0
читателей
Полный профиль
Kosta Bankovski - Спасибо за приятные слова! Буду и дальше делиться наработками ;)
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Как вывести сайт в ТОП 10 Google в 2019 году
Ирина
8
комментариев
0
читателей
Полный профиль
Ирина - Работают. Как естественные, так и закупные. >Мои сайты в первую очередь заточены на яндекс Соболезную. >Насколько поисковые алгоритмы с гугловскими у него. Разница в 10 лет. Вон в Яше все долбят на ключи, на вхождения и прочий трэш из древностей. А у Гугла, вон почитайте про eat, ymyl Не все понятно но спасибо за ответы. Я так понимаю что с ссылками деть никто точно не знает) Ну это и хорошо вообщем. Самому разбираться как то интересней. Но не всегда. Есть к примеру 2captcha.com/ru и на него 100к ссылок есть. Ну а смысл какой?
10 элементов сайта, которые гарантированно отпугнут посетителей
Андрей
2
комментария
0
читателей
Полный профиль
Андрей - Ну типа потому что клиентское seo больше для коммерции предназначено. Типа контентники и сами знают что делать. В коммерции можно тысячу причин найти чтобы поработать с сайтом, а с контентными такие фокусы уже не прокатят, поэтому и не пишут. Всё продвижение для контентников сеошники описывают в трех словах: скорость, качество, систематичность. А, ну ещё конечно же СЯ, как же я про него забыл (фундамент жеть!).
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
360
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
107
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
79
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!