Ашмановская 2009: Секреты алгоритмов поисковиков

Россия+7 (495) 960-65-87
Шрифт:
0 2132

Игорь КлименкоВ докладе «Аффилирование, или борьба с монополизацией поисковой выдачи» Игорь Клименко, заместитель руководителя отдела продвижения AdLabs, рассказал о сайтах-аффилиатах и мерах, которые применяют Яндекс и Google для того, чтобы бороться с подобными сайтами. Аффилированные сайты создаются обычно компанией, чтобы присутствовать в выдаче на нескольких позициях по одному и тому же запросу. Таким образом компания пытается монополизировать выдачу, увеличивая вероятность клика по результатам своего сайта в разы.

Яндекс и Google по-разному относятся к аффилированным сайтам. Точнее, относятся они одинаково негативно, но борются с ними по-разному. Если Яндекс замечает в выдаче несколько аффилированных сайтов, то он оставляет один, который, по его мнению, является наиболее соответствующим запросу. То есть Яндекс применяет фильтр линейно – исключает по определенному запросу. Google поступает иначе – он снижает позиции аффилированных сайтов. То есть в выдаче можно увидеть, что несколько сайтов присутствуют в выдаче по одному запросу: один высоко, другой в районе 50 позиции.

Также Яндекс высказывается против аффилированности в Правилах показа (п.5) объявлений Директа и Правилах показа в Маркете. Основаниями для применения фильтра аффилированных сайтов, которые распространяется как на органическую выдачу, так и на контекстные объявления, являются:

· Совпадение на сайтах значительной части ассортимента.

· Одни и те же товары предлагаются одним и тем же поставщиком (сайты принадлежат одной и той же компании).

Поисковые системы, по словам Игоря Клименко, используют следующие признаки, чтобы понять является ли сайт аффилиатом или нет:

· Одинаковые данные регистратора доменов, контактные данные при регистрации.

· Сходный дизайн и верстка.

· Одинаковые контактные данные, указанные на сайтах.

· Сходный ассортимент, одинаковые цены.

· Сходное описание разделов каталога и товары.

· Расположение подозрительных сайтов на одном хостинга.

· Жалоба конкурентов.

Проверить, попал ли сайт под аффилиат, можно по указанной схеме.

Что делать, если сайт был понижен в выдаче из-за фильтра аффилиатов:

· Определяем, с каким сайтом он зааффилирован.

· Выявляем причины.

· В случае ошибочного применения фильтра нужно обратиться в ПС.

· Если аффилиат был сделан специально, то нужно продать домен, переделать сайт, чтобы снять действие фильтра или перераспределить запросы между сайтами-аффилиатами: одни запросы «заточить» под одни сайты, другие под другие.

При удалении из выдачи сайты продолжают индексироваться. С апдейтами аффилированные сайты могут меняться: одни могут выйти вперед, другие пропасть.

Иван МолчановИван Молчанов, специалист по рекламе в интернете-компании «Люкс-АР», рассказал участникам конференции о том, как поисковые системы выявляют дубликаты. Перед этим Иван сообщил, что источниками дубликатов являются:

· различные урлы одного документа;

· преобразование документа (смена формата документа);

· редактирование документа (перестановка абзацев, предложений, форматирование текста);

· сознательная уникализация документа (спам-технологии, замена слов синонимами).

Для того, чтобы определить, является ли сайт дублем, поисковые системы применяют оффлайн- и онлайн-кластеризацию.

Под первой подразумевается вычисление хэш-функций: синтаксических, лексических, которое происходит на этапе индексации сайта. Тексты предварительно очищаются от «лишних» данных: html-разметки, тэгов, стоп-слов. Лексический алгоритм работает на основе обратного индекса поисковых систем, который выделяет локальные сигнатуры (слова в одном документе) и глобальные сигнатуры (статистика слов во всей коллекции). В процессе кластеризации отбрасываются слишком частые и слишком редкие слова. Из оставшихся составляется словарь, который описывает всю коллекцию документов.

Под онлайн-кластеризацией понимается анализ текста и ссылок, который происходит на этапе формирования выдачи. Если совпадают, например, сниппеты, то документы относятся к одному кластеру и показываются как один результат.

На примере сервиса Антиплагиат, который используется для определения «чужого» материала, Иван провел эксперимент, чтобы вывести возможную формулу создания текста, который будет считаться уникальным. Его вывод: «Если заменить каждое 4-ое слово в тексте, то можно создать уникальный текст».

Доклад Евгения Трофименко уже освещался на конференции RIW-2009.

Другие доклады конференции "Поисковая оптимизация и продвижение сайтов в Интернете 2009" вы можете в наших материалах:

VIII Ашмановская конференция стартовала

Ашмановская 2009: «За комплексным маркетингом будущее»

Ашмановская 2009: «То, что давно ждали… просили… надеялись…»

Ашмановская 2009: «Главное – выбор стратегии»

Случилось что-то важное? Поделитесь новостью с редакцией.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
    ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
    SEOnews и Serpstat запускают конкурс для интернет-маркетологов
    Marina Lagutina
    1
    комментарий
    0
    читателей
    Полный профиль
    Marina Lagutina - Добрый день! Видимо я из тех, кто пытается последней вскочить в уходящий поезд. Ночью написала статью на тему "обзор инструментов контент-маркетинга". Своего блога нет. Отправила вам не мейл. Я еще могу у вас разместиться или искать, кто возьмет статью к себе в блог?
    «Я оптимизировал сайт, а он не в ТОП! Что делать?»
    Павел Горбунов
    7
    комментариев
    0
    читателей
    Полный профиль
    Павел Горбунов - Как можно в инструменте tools.pixelplus.ru/tools/text-natural сравнить текст со страницы конкурента и со своей страницы? Я вижу возможность только для проверки одного урла.
    Монетизация сайта. Как, когда, сколько?
    Гость2
    1
    комментарий
    0
    читателей
    Полный профиль
    Гость2 - Руслан! Спасибо за ваш сервис и за данную статью в частности! С апреля являюсь вашим пользователем - очень доволен как сервисом, так и уровнем заработка! Еще раз спасибо, удачи вашему проекту!
    Мир глазами поисковых систем
    Александр Рунов
    7
    комментариев
    0
    читателей
    Полный профиль
    Александр Рунов - Какой регион, если не секрет? В Мск, в ряде ВК тематик (в тех же "окнах" или "колесах"), без работы с внешними факторами по ВЧ запросам в ТОП не выплывешь. Хотя в большинстве направлений вполне реально.
    Влияние HTTPS на ранжирование региональных поддоменов в Яндексе
    Екатерина Иванова
    1
    комментарий
    0
    читателей
    Полный профиль
    Екатерина Иванова - Посмотрите на сколько упал трафик и на сколько потом вырос:упал на 10-20% на 1 месяц, а вырос в итоге в 5 раз. Одним мартовским трафиком всё падение перекрыли. Или можно ждать Яндекс неопределённое количество времени со стартовым уровнем трафика. Упущенные возможности и всё-такое.
    7 причин не работать на биржах копирайтинга
    Dasha Shkaruba
    6
    комментариев
    0
    читателей
    Полный профиль
    Dasha Shkaruba - Спасибо за мнение! Кстати, на бирже главреда прием анкет закрыт
    День рождения SEOnews: 12 лет в эфире!
    Анна Макарова
    308
    комментариев
    0
    читателей
    Полный профиль
    Анна Макарова - Ура )
    Google.ru внесли в реестр запрещенных сайтов
    Гость
    1
    комментарий
    0
    читателей
    Полный профиль
    Гость - Гон, все работает и будет работать. Да и пусть банят, будет как с рутрекером.
    Инфографика: самые распространенные SEO-ошибки Рунета
    Alex Wise
    3
    комментария
    0
    читателей
    Полный профиль
    Alex Wise - Спасибо, Женя, за рекомендацию! :) Андрей, чтобы понять, какой программой пользоваться, нужно сделать несколько вещей: 1. Попробовать обе: у нас в Netpeak Spider бесплатный триал на 14 дней с полным функционало; у SFSS до 500 URL всегда бесплатно, но с ограниченным функционалом. 2. Понять свой стиль работы – если вы любите полный контроль и из-за этого более высокую скорость пробивки, тогда выбирайте Netpeak Spider. Если для вас не так важна скорость и количество пробитых URL, то можно остановиться на SFSS. 3. Определиться с нужными функциями: их в обоих программах очень много и как в Netpeak Spider есть уникальные, так и в SFSS есть свои уникальные. Мы всегда ориентируемся на то, чтобы быстро и чётко показать ошибки – для этого у нас вся таблица красится в соответствующие цвета. Думайте!) И, если что, обращайтесь с вопросами – мы будем рады помочь!)
    Конкурс: угадайте пятерку лидеров рейтинга «SEO глазами клиентов 2017»
    Оля
    1
    комментарий
    0
    читателей
    Полный профиль
    Оля - 1 Ingate 2 Wezom 3 Bynjg vtlbf 4 seo energy 5 директ лайн
    ТОП КОММЕНТАТОРОВ
    Комментариев
    910
    Комментариев
    834
    Комментариев
    554
    Комментариев
    540
    Комментариев
    483
    Комментариев
    373
    Комментариев
    308
    Комментариев
    262
    Комментариев
    224
    Комментариев
    171
    Комментариев
    156
    Комментариев
    137
    Комментариев
    121
    Комментариев
    97
    Комментариев
    97
    Комментариев
    95
    Комментариев
    80
    Комментариев
    77
    Комментариев
    67
    Комментариев
    60
    Комментариев
    59
    Комментариев
    55
    Комментариев
    53
    Комментариев
    52
    Комментариев
    46

    Отправьте отзыв!
    Отправьте отзыв!