×
Россия +7 (495) 139-20-33

Ссылочный спам: найти и обезвредить

Россия +7 (495) 139-20-33
Шрифт:
0 5794

Сегодня хочу рассмотреть проблему ссылочного спама. Возможно кому-то нижеизложенное покажется очевидным, но для тех, кто не так давно в оптимизации, надеюсь, она покажется интересной. Сама статья является симбиозом многих идей, которые я уже высказывал ранее в обсуждениях. Что-то было пересмотрено, что-то дополнено. Теперь пришла пора свести это воедино.

Для начала хочу отметить, что вся статья - это попытка логического осмысления проблемы ссылочного спама. Фактов приводить не буду, у большинства оптимизаторов их вполне достаточно, чтобы поискать соответствия или противоречия.

Итак, начнем с простого и очевидного - все ссылки можно условно разделить на:
естественные, т.е. отражающие мнение участников Сети к тому или иному ресурсу или странице;
искусственные, используемые оптимизаторами всех оттенков для повышения позиций в поисковых системах.

Вторые однозначно классифицируются поисковыми системами как спам и являются объектом для борьбы.
Перед тем как перейти к рассмотрению методов, которые могут использовать поисковики для идентификации ссылочного спама, необходимо рассмотреть два немаловажных момента.

В недалеком прошлом и весьма продолжительно бытовал миф о так называемой “склейке” ссылок. Судя по его стойкости, я уже начинал подозревать, что этот миф был “уткой”, закинутой самими поисковиками. Почему? Думаю, многие поймут далее самостоятельно. Несмотря на кажущуюся логичность, идея о “склейке” абсурдна потому, что открывает широкие возможности для злоупотребления ею со стороны оптимизаторов для “деоптимизации” конкурентов. А поскольку подобных прецедентов пока еще не было зафиксировано, то следует принять за постулат утверждение, что никакой метод “коррекции” ссылочного ранжирования, подразумевающий возможность стороннего влияния, не может быть использован.

Второй момент заключается в том, что никакие автоматизированные методы идентификации ссылочного спама не могут дать 100% гарантированного результата. Поэтому в реальности мы можем говорить лишь о коэффициенте естественности ссылки, рассчитываемому по ряду признаков. Чем больше факторов, указывающих на “спамность” ссылки, тем ниже коэффициент и ниже итоговый вес. Вполне естественно, что обсчет ссылочного ранжирования - весьма ресурсоемкая операция, поэтому вполне естественным было бы исключения из обсчета ссылок, имеющих пренебрежительно малый вес. Под эту категорию попадают доски объявлений, форумы, гостевые и т.д. Т.е. все то, что и так логично было бы не учитывать. Сделать это можно весьма просто - введением порога “учитываемости”. Если вес ссылки ниже этого порога, то ссылка не участвует в расчете ссылочного ранжирования. Возвращаясь к вопросу о коэффициенте естественности, рассмотрим простой пример. На некотором сайте установлен ссылочный блок. Каждая ссылка имеет некоторый вес, определяемый весом страницы, на которой установлены ссылки, и числом внешних ссылок с нее. Чем больше установлено ссылок, тем вес каждой - меньше. Теперь этот вес умножается на низкий коэффициент естественности и в результате итоговый вес ссылки оказывается ниже порога “учитываемости”. Налицо все признаки автоматического “непот-фильтра”.

Методы выявления и борьбы со ссылочным спамом

Условно их можно разделить на три группы:

1)Статистический

В основе метода - выявление набора признаков, характеризующих спамные ссылки. Само выявление представляет собой достаточно простую процедуру. Берется набор сайтов, которые однозначно раскручиваются (ТОП). Получаются их обратные ссылки и анализируются на предмет сходства. Выявленные признаки могут проверяться на другом наборе раскручиваемых сайтов.
Рассмотрим некоторые из них.

Принадлежность сайту. Алгоритм, идентифицирующий спамерские сайты, уже не новинка. Это общеизвестный TrustRank. И я считаю, что у Яндекса есть свой аналог. Но метод сам по себе достаточно топорен, т.к. автоматически понижает вес всех ссылок, что в принципе неверно. Поэтому его можно применять лишь в совокупности.

Число ссылок. Сайты, размещающие ссылки, стремятся продать их как можно больше. Но использовать простое число внешних ссылок для идентификации спамерского сайта недостаточно. Сайты, имеющие очень большой собственный вес, могут размещать несколько десятков ссылок, и все они будут достаточно эффективны. Поэтому разумнее использовать нелинейный коэффициент, значительно снижающий вес, передаваемый каждой ссылке в случае их большого числа. В этом случае ссылки быстрее будут попадать под порог “учитываемости”, т.е. под “непот”.

Расположение. Известно, что вебмастера, продающие места на “мордах” своих сайтов, размещают ссылки в отдельных блоках, вынося их в боковые колонки или низ сайта, т.е. не в контенте. Такое местоположение может с высокой степенью вероятности указывать на принадлежность ссылочного блока к спаму.

Окружение. Возвращаясь к блочному принципу размещения продажных ссылок, следует отметить, что это легко идентифицируется по повышенной плотности внешних ссылок на небольшом участке кода. И несмотря на то, что многие оптимизаторы стремятся добавлять к своим ссылкам текст, принципиально это картину не меняет.

Тематичность. По поводу автоматического определения тематичности сайтов уже сломано много копий. Лично я придерживаюсь мнения, что такие методы есть и активно используются. Соответственно, ссылка между двумя сайтами может иметь низкий вес, если тематики принципиально не совпадают. В случае блочного размещения нетематических ссылок, все они могут идентифицироваться как спамерские.

Код ссылки. Данный метод основывается на том факте, что многие автоматизированные системы установки ссылок (биржи, обменники и т.п.) устанавливают код автоматически по шаблону. Наличие блока идентичных по коду ссылок может указывать на их спамное происхождение. Но этот метод имеет и обратную сторону, т.к. автоматически ссылки устанавливаются, например, через функционал CMS-систем. Поэтому применимость его ограничена и может использоваться лишь в совокупности с другими.

Текст ссылки. Весьма неоднозначный признак. К анализу можно подходить с двух сторон. Во-первых, текст ссылки как самостоятельная конструкция. Составляя текст ссылки, многие оптимизаторы редко задумываются о его читаемости и близости к естественному языку. Главный критерий - уникальность, большее число ключевых слов и Директ-ориентированность. Результатом становятся конструкции вроде “продать купить автомобиль машина Москва” вместо “продать автомобиль в Москве”. Реальность использования такого подхода в анализе конечно спорна по очевидным причинам, но не невозможна. Другой подход к анализу текста ссылки базируется на соответствии ее тексту страницы, на которую она ведет. Некоторое время назад из-за возникшей истерии со “склейкой” ссылок многие вебмастера начали стремиться разбавлять тексты и в этом стремлении доходили порой до абсурда, добавляя рандом-генерированные слова. Несоответствие текста ссылки странице может также являться признаком спамности, хотя и весьма спорным.

Время жизни. Достаточно часто приходится слышать от оптимизаторов идею о том, что новые ссылки могут иметь небольшой вес, а затем постепенно его увеличивать. Предположение выглядит логичным, но исключительно с позиции оптимизатора, который ставит спамные ссылки. Если же мы возьмем естественную ссылку, то автор ее устанавливал в момент наибольшей актуальности и интереса к сайту, на который она ведет. Со временем эта актуальность может лишь уменьшаться вплоть до того, что автор просто забудет об этой ссылке, и ее актуальность будет для него почти нулевая. Использование данного параметра подразумевает вариацию скорости убывания веса ссылки и его нижнее значение в зависимости от сайта, где она установлена. Например, ссылка на новостном сайте быстрее теряет свою актуальность, чем на тематическом ресурсе.

Следует также отметить, что все вышеуказанные признаки должны применяться в совокупности, т.к. можно найти множество исключительных случаев, когда один или два признака не могут быть применимы. Соответственно каждый из этих признаков может иметь пополняемый перечень исключений.

2) Индивидуальный

Подход может базироваться на тех же признаках, что и в статистическом анализе, но в отличие от него, санкции применяются не в виде автоматического понижающего коэффициента, а в виде ручного бана или наложения непот-фильтра. Т.е. метод направлен против различным спамерских систем и сайтов, которые не поддаются автоматическому обнаружению и подразумевает использование человеческого интеллекта (модераторов).

3) Профилактический

В последнее время размещение продажных ссылок стало доходным бизнесом, в который вовлекаются крупные и авторитетные ресурсы. Разумеется, применение к ним автоматических методов фильтрации или даже бана не всегда допустимо. Поэтому остается только профилактический путь воздействия, т.е. наложения пессимизации, в результате которой сайт теряет часть аудитории с поисковой системы и вынужден снимать продажные ссылки. Замечу, что метод этот весьма неоднозначный, несмотря на то, что имеются ряд примеров его подтверждающих.

В заключение выражаю надежду, что все вышеизложенное поможет оптимизаторам в борьбе за место под солнцем.

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Ссылочный апдейт Google: что изменится для SEO-специалистов в рунете
Тимур
6
комментариев
0
читателей
Полный профиль
Тимур - Понял, спасибо за информацию.
Как продвинуть сайт по коммерческим запросам в ТОП-10 с помощью ресурса Reddit
Roman Saev
9
комментариев
0
читателей
Полный профиль
Roman Saev - Мне удалось за последнее время неплохо продвинуть свой сайт и трафик набрать. Использовал реддит площадку, а так же сервис zenlink.ru для создания ссылочной массы. Как итог, удалось привлечь целевых посетителей и значительно поднять конверсию моего ресурса.
3 основные ошибки, которые допускают владельцы сайтов при продвижении
Виктор Гаврюков
31
комментарий
1
читатель
Полный профиль
Виктор Гаврюков - Не обращай внимания_) Если у тебя хороший ресурс, то ты будешь первоисточником, и все кто своровал, автоматически начнут на тебя ссылаться, точнее, так гугл будет считать_)
Тильда для SEO-продвижения и бизнеса: плюсы и минусы конструктора сайтов
Сергей Садовничий
2
комментария
0
читателей
Полный профиль
Сергей Садовничий - Есть страницы где 79 для мобайла / 97 для десктопа без вообще каких либо заморочек. Есть страницы на Тильда у которых показатели для мобайла 60 - и эти страницы находятся в ТОП 1-3 по всем интересующим ключам. С показателями по скорости 60 Google Search Console заявляет, что страница оптимизирована для мобильных устройств и является удобной для пользователей. Рекомендую в первую очередь делать акцент на контенте, качестве внутренней оптимизации, наличии коммерческих факторов (если это не инфо страница) и над ссылочным а уж потом пытаться подтягивать показатели по PageSpeed Insights. Но как правило страницы выходят в ТОП и необходимости добиться PageSpeed Insights за 80 нет!
Зарабатываем с помощью текстов: как создать уникальный контент и монетизировать сайт
Максим Зубарев
1
комментарий
0
читателей
Полный профиль
Максим Зубарев - Просто каждый должен заниматься своим делом и о нем и писать ))) сапа хороша в ссылках, вот о линкбилдинге их материалы заходят хорошо. Сапа не пишет статьи ))) Поэтому ничего удивительного
Скучное, но эффективное SEO: 3 кита успешной поисковой оптимизации
Bquadro
2
комментария
0
читателей
Полный профиль
Bquadro - Не совсем так) Совет про техническую оптимизацию и структуру сайта равноценен как для коммерческого сайта, так и для информационного. Эти два правила универсальны и влияют на ранжирование в поиске вне зависимости от типа ресурса.
Как доработка структуры вывела сайт в ТОП-10 Google и увеличила трафик в 2 раза. Кейс Связной Трэвел
Дмитрий
3
комментария
0
читателей
Полный профиль
Дмитрий - Вероятнее всего было обновление Google и позиции были снижены в связи с низкой скоростью загрузки страниц (так как доработке ведутся не только по SEO, но и в целом по функционалу сайта, появляются новые скрипты). В этот период в Google Search Console увеличилось количество страниц с низкой скоростью загрузки. Мы выявили несколько проблем, которые снижают скорость загрузки страниц и выдали рекомендации по их устранению. Пока данные рекомендации находятся в работе. Также был проведен анализ EAT факторов и проверка сайта на соответствие требованиям Google к YMYL сайта, выданы рекомендации по доработке данных факторов (ждем внедрения наших рекомендаций, поделимся потом результатами).
Рост ботных переходов на сайт: как интерпретировать и что делать
Mike
7
комментариев
0
читателей
Полный профиль
Mike - как это проверить? что товары выводится именно на основе спроса, а не по заданным алгоритмам?
Как оптимизировать картинки для SEO-продвижения: чек-лист
Алексей Махметхажиев
6
комментариев
0
читателей
Полный профиль
Алексей Махметхажиев - Надо упомянуть про ленивую загрузку lazy load, что её можно сделать с вредом для картинок и их индексации и можно сделать всё правильно. Есть отложка вредная.)
Сравнительная статистика уровня жизни SEO-специалистов в семи странах, включая Россию
Рустам
1
комментарий
0
читателей
Полный профиль
Рустам - Средняя температура по больнице, подсчет даже близко не отображает действительность, особенно учитывая разность цен и уровня зп в разных частях больших стран (США, Канада, Россия)
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
114
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
94
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
62
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!