Россия+7 (495) 960-65-87

Ссылочный спам: найти и обезвредить

Россия+7 (495) 960-65-87
Шрифт:
0 4236

Сегодня хочу рассмотреть проблему ссылочного спама. Возможно кому-то нижеизложенное покажется очевидным, но для тех, кто не так давно в оптимизации, надеюсь, она покажется интересной. Сама статья является симбиозом многих идей, которые я уже высказывал ранее в обсуждениях. Что-то было пересмотрено, что-то дополнено. Теперь пришла пора свести это воедино.

Для начала хочу отметить, что вся статья - это попытка логического осмысления проблемы ссылочного спама. Фактов приводить не буду, у большинства оптимизаторов их вполне достаточно, чтобы поискать соответствия или противоречия.

Итак, начнем с простого и очевидного - все ссылки можно условно разделить на:
естественные, т.е. отражающие мнение участников Сети к тому или иному ресурсу или странице;
искусственные, используемые оптимизаторами всех оттенков для повышения позиций в поисковых системах.

Вторые однозначно классифицируются поисковыми системами как спам и являются объектом для борьбы.
Перед тем как перейти к рассмотрению методов, которые могут использовать поисковики для идентификации ссылочного спама, необходимо рассмотреть два немаловажных момента.

В недалеком прошлом и весьма продолжительно бытовал миф о так называемой “склейке” ссылок. Судя по его стойкости, я уже начинал подозревать, что этот миф был “уткой”, закинутой самими поисковиками. Почему? Думаю, многие поймут далее самостоятельно. Несмотря на кажущуюся логичность, идея о “склейке” абсурдна потому, что открывает широкие возможности для злоупотребления ею со стороны оптимизаторов для “деоптимизации” конкурентов. А поскольку подобных прецедентов пока еще не было зафиксировано, то следует принять за постулат утверждение, что никакой метод “коррекции” ссылочного ранжирования, подразумевающий возможность стороннего влияния, не может быть использован.

Второй момент заключается в том, что никакие автоматизированные методы идентификации ссылочного спама не могут дать 100% гарантированного результата. Поэтому в реальности мы можем говорить лишь о коэффициенте естественности ссылки, рассчитываемому по ряду признаков. Чем больше факторов, указывающих на “спамность” ссылки, тем ниже коэффициент и ниже итоговый вес. Вполне естественно, что обсчет ссылочного ранжирования - весьма ресурсоемкая операция, поэтому вполне естественным было бы исключения из обсчета ссылок, имеющих пренебрежительно малый вес. Под эту категорию попадают доски объявлений, форумы, гостевые и т.д. Т.е. все то, что и так логично было бы не учитывать. Сделать это можно весьма просто - введением порога “учитываемости”. Если вес ссылки ниже этого порога, то ссылка не участвует в расчете ссылочного ранжирования. Возвращаясь к вопросу о коэффициенте естественности, рассмотрим простой пример. На некотором сайте установлен ссылочный блок. Каждая ссылка имеет некоторый вес, определяемый весом страницы, на которой установлены ссылки, и числом внешних ссылок с нее. Чем больше установлено ссылок, тем вес каждой - меньше. Теперь этот вес умножается на низкий коэффициент естественности и в результате итоговый вес ссылки оказывается ниже порога “учитываемости”. Налицо все признаки автоматического “непот-фильтра”.

Методы выявления и борьбы со ссылочным спамом

Условно их можно разделить на три группы:

1)Статистический

В основе метода - выявление набора признаков, характеризующих спамные ссылки. Само выявление представляет собой достаточно простую процедуру. Берется набор сайтов, которые однозначно раскручиваются (ТОП). Получаются их обратные ссылки и анализируются на предмет сходства. Выявленные признаки могут проверяться на другом наборе раскручиваемых сайтов.
Рассмотрим некоторые из них.

Принадлежность сайту. Алгоритм, идентифицирующий спамерские сайты, уже не новинка. Это общеизвестный TrustRank. И я считаю, что у Яндекса есть свой аналог. Но метод сам по себе достаточно топорен, т.к. автоматически понижает вес всех ссылок, что в принципе неверно. Поэтому его можно применять лишь в совокупности.

Число ссылок. Сайты, размещающие ссылки, стремятся продать их как можно больше. Но использовать простое число внешних ссылок для идентификации спамерского сайта недостаточно. Сайты, имеющие очень большой собственный вес, могут размещать несколько десятков ссылок, и все они будут достаточно эффективны. Поэтому разумнее использовать нелинейный коэффициент, значительно снижающий вес, передаваемый каждой ссылке в случае их большого числа. В этом случае ссылки быстрее будут попадать под порог “учитываемости”, т.е. под “непот”.

Расположение. Известно, что вебмастера, продающие места на “мордах” своих сайтов, размещают ссылки в отдельных блоках, вынося их в боковые колонки или низ сайта, т.е. не в контенте. Такое местоположение может с высокой степенью вероятности указывать на принадлежность ссылочного блока к спаму.

Окружение. Возвращаясь к блочному принципу размещения продажных ссылок, следует отметить, что это легко идентифицируется по повышенной плотности внешних ссылок на небольшом участке кода. И несмотря на то, что многие оптимизаторы стремятся добавлять к своим ссылкам текст, принципиально это картину не меняет.

Тематичность. По поводу автоматического определения тематичности сайтов уже сломано много копий. Лично я придерживаюсь мнения, что такие методы есть и активно используются. Соответственно, ссылка между двумя сайтами может иметь низкий вес, если тематики принципиально не совпадают. В случае блочного размещения нетематических ссылок, все они могут идентифицироваться как спамерские.

Код ссылки. Данный метод основывается на том факте, что многие автоматизированные системы установки ссылок (биржи, обменники и т.п.) устанавливают код автоматически по шаблону. Наличие блока идентичных по коду ссылок может указывать на их спамное происхождение. Но этот метод имеет и обратную сторону, т.к. автоматически ссылки устанавливаются, например, через функционал CMS-систем. Поэтому применимость его ограничена и может использоваться лишь в совокупности с другими.

Текст ссылки. Весьма неоднозначный признак. К анализу можно подходить с двух сторон. Во-первых, текст ссылки как самостоятельная конструкция. Составляя текст ссылки, многие оптимизаторы редко задумываются о его читаемости и близости к естественному языку. Главный критерий - уникальность, большее число ключевых слов и Директ-ориентированность. Результатом становятся конструкции вроде “продать купить автомобиль машина Москва” вместо “продать автомобиль в Москве”. Реальность использования такого подхода в анализе конечно спорна по очевидным причинам, но не невозможна. Другой подход к анализу текста ссылки базируется на соответствии ее тексту страницы, на которую она ведет. Некоторое время назад из-за возникшей истерии со “склейкой” ссылок многие вебмастера начали стремиться разбавлять тексты и в этом стремлении доходили порой до абсурда, добавляя рандом-генерированные слова. Несоответствие текста ссылки странице может также являться признаком спамности, хотя и весьма спорным.

Время жизни. Достаточно часто приходится слышать от оптимизаторов идею о том, что новые ссылки могут иметь небольшой вес, а затем постепенно его увеличивать. Предположение выглядит логичным, но исключительно с позиции оптимизатора, который ставит спамные ссылки. Если же мы возьмем естественную ссылку, то автор ее устанавливал в момент наибольшей актуальности и интереса к сайту, на который она ведет. Со временем эта актуальность может лишь уменьшаться вплоть до того, что автор просто забудет об этой ссылке, и ее актуальность будет для него почти нулевая. Использование данного параметра подразумевает вариацию скорости убывания веса ссылки и его нижнее значение в зависимости от сайта, где она установлена. Например, ссылка на новостном сайте быстрее теряет свою актуальность, чем на тематическом ресурсе.

Следует также отметить, что все вышеуказанные признаки должны применяться в совокупности, т.к. можно найти множество исключительных случаев, когда один или два признака не могут быть применимы. Соответственно каждый из этих признаков может иметь пополняемый перечень исключений.

2) Индивидуальный

Подход может базироваться на тех же признаках, что и в статистическом анализе, но в отличие от него, санкции применяются не в виде автоматического понижающего коэффициента, а в виде ручного бана или наложения непот-фильтра. Т.е. метод направлен против различным спамерских систем и сайтов, которые не поддаются автоматическому обнаружению и подразумевает использование человеческого интеллекта (модераторов).

3) Профилактический

В последнее время размещение продажных ссылок стало доходным бизнесом, в который вовлекаются крупные и авторитетные ресурсы. Разумеется, применение к ним автоматических методов фильтрации или даже бана не всегда допустимо. Поэтому остается только профилактический путь воздействия, т.е. наложения пессимизации, в результате которой сайт теряет часть аудитории с поисковой системы и вынужден снимать продажные ссылки. Замечу, что метод этот весьма неоднозначный, несмотря на то, что имеются ряд примеров его подтверждающих.

В заключение выражаю надежду, что все вышеизложенное поможет оптимизаторам в борьбе за место под солнцем.

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
    ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
    Google Data Studio: делаем красивые отчеты по контекстной рекламе для клиентов
    Askar Seitov
    1
    комментарий
    0
    читателей
    Полный профиль
    Askar Seitov - помогите! не могу понять почему по инструкции в вашей статье добавляю вычистяемые поля просто копирую ваш код, но датастудио выдает ошибку на этот код: Синтаксическая ошибка: Недопустимый входной символ. Убедитесь, что в формуле нет кавычек-лапок.. как это исправить? я все варианты кавычек уже попробовал
    Сайт на WordPress: за и против
    Мира Смурков
    1
    комментарий
    0
    читателей
    Полный профиль
    Мира Смурков - Людмила, я согласен с большинством комментаторов. Вы хоть один полноценный магазин сделали на этих движках? Woocommerce это система с супер возможностями. И к ней есть дополнительные модули, с функционалом, который вряд ли появиться на Битрикс. А самому это программировать - сотни тысяч рублей на разработку. А приведя в пример сложности с robots.txt и Sitemap вы ставите под вопрос вашу компетенцию в понимании Интернет-бизнеса и веб-разработки в целом. Во-первых это такие мелочи, а во-вторых это все делается на вордпресса за 2 минуты, и опять же с возможностями многократно превышающими Битрикс.
    #SEOnews14: мы празднуем – вы получаете подарки!
    Rizat Sundetov
    1
    комментарий
    0
    читателей
    Полный профиль
    Rizat Sundetov - 14
    Google обошел Яндекс по популярности в России в 2018 году: исследование SEO Auditor
    Рамблер
    1
    комментарий
    0
    читателей
    Полный профиль
    Рамблер - Вот вроде отечественный - это сказано верно.. «Я́ндекс» — российская транснациональная компания, зарегистрированная в Нидерландах. Так говорится в Википедии. И с хрена ли ОТЕЧЕСТВЕННЫЙ поисковик зарегистрирован в Европе? И где платится основная часть налогов? Ну-ууу, точно не в России. И если запахнет жаренным, то был Яндекс и нет Яндекса!
    8 методик в SEO, от которых давно пора отказаться
    Евгений Сметанин
    12
    комментариев
    0
    читателей
    Полный профиль
    Евгений Сметанин - Факторов вообще очень много, согласитесь, вы будете использовать максимальное их количество, особенно, если в ТОПе засели агрегаторы с сумасшедшими ПФ. В таких случаях, вхождение ключа в домен для маленького профильного сайта, сыграет свою положительную роль. Конечно же, если контент на страницах хорошего качества. У меня есть несколько успешных кейсов на эту тему. На сайте продают несколько видов товаров, а выстреливает в ТОП тот, название которого присутствует в доменном имени. Как корабль назовешь, так он и поплывет, верно?))
    Война с дубликатами. Как нужно и как не нужно канонизировать URL
    Дмитрий
    1
    комментарий
    0
    читателей
    Полный профиль
    Дмитрий - Здравствуйте, на сайте возможно несколькими путями дойти до почти одинаковой страницы, те отличаться будет только незначительная часть H1, а контент будет одинаковым, дело в применимости автозапчастей к разным автомобилям. Что из этого будет каноничной ссылкой и какие есть пути для решения подобных ситуаций? 1 - bpauto.ru/catalog/audi/audi-a6/a6-iv-c7-sedan-2011-2014/kuzov-naruzhnaya-chast/dveri-i-komplektuyushchie/dver-perednyaya-levaya/ 2 - bpauto.ru/catalog/audi/audi-a6/a6-iv-c7-rest-sedan-2014-n-v-/kuzov-naruzhnaya-chast/dveri-i-komplektuyushchie/dver-perednyaya-levaya/
    Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
    Марина Ибушева
    46
    комментариев
    0
    читателей
    Полный профиль
    Марина Ибушева - Здравствуйте! Все рекламные материалы на SEOnews помечаются. В данном случае мы решили перевести и опубликовать эту статью совершенно бесплатно, так как она показалась нам интересной и вызвала бурное обсуждение среди западных SEO-специалистов. Ссылки мы ставим в конце ко всем материалам, если у них есть первоисточник.
    Как выбрать подрядчика для продвижения сайта: 7 уровней воронки поиска
    aashutosh
    1
    комментарий
    0
    читателей
    Полный профиль
    aashutosh - data science training institute in noida- Webtrackker Technology (8802820025) providing Data Science Training in Noida. Get ✓ 40 Hours Learning training✓ 70 Hrs Projects ✓ 24 X 7 Support ✓ Job Assistance. WEBTRACKKER TECHNOLOGY (P) LTD. C - 67, sector- 63, Noida, India. E-47 Sector 3, Noida, India. +91 - 8802820025 0120-433-0760 +91 - 8810252423 012 - 04204716 EMAIL:info@webtrackker.com webtrackker.com/Best-Data-Science-Training-Institute-in-Noida.php
    Как построить качественный ссылочный профиль на основе конкурентов
    Ирина
    5
    комментариев
    0
    читателей
    Полный профиль
    Ирина - Давно сотрудничаю с megaindex.com и считаю данный сервис одним из лучших в сео сегменте рунета да и не только рунета. Пользуюсь их инструментами для аналитики своих работ и выявлению своих и чужих ошибок. Да и ссылочный профиль, как и говорится в данной статье сделать гораздо проще и правильней при помощи как раз мегаиндекса. Добавлю еще что инструмент для поиска конкурентов у мегаиндекса очень удобный и простой в применении.
    Google назвал три главных SEO-фактора
    Павел Андрейчук
    44
    комментария
    0
    читателей
    Полный профиль
    Павел Андрейчук - Я бы не стал утверждать что это так. У меня есть ресурс где ссылок.. ну я не знаю, полтинник может быть, вручную проставленные года за 2 и позиции хорошие по могим запросам именно в гугле, в то время как в Яндексе позиции ниже. Хотя конечно с ссылками позиции были бы лучше, наверное, но владелец увы не выделяет бюджет на ссылки.
    ТОП КОММЕНТАТОРОВ
    Комментариев
    910
    Комментариев
    834
    Комментариев
    554
    Комментариев
    540
    Комментариев
    483
    Комментариев
    373
    Комментариев
    352
    Комментариев
    262
    Комментариев
    249
    Комментариев
    171
    Комментариев
    156
    Комментариев
    137
    Комментариев
    121
    Комментариев
    105
    Комментариев
    97
    Комментариев
    97
    Комментариев
    96
    Комментариев
    80
    Комментариев
    77
    Комментариев
    69
    Комментариев
    67
    Комментариев
    60
    Комментариев
    59
    Комментариев
    57
    Комментариев
    55

    Отправьте отзыв!
    Отправьте отзыв!