×
Россия +7 (495) 139-20-33

Поисковый клоакинг: за и против

Россия +7 (495) 139-20-33
Шрифт:
2 5740
Подпишитесь на нас в Telegram

Клоакинг – технология выдачи разных страниц разным пользователям. Есть объективная причина использования клоакинга:данный метод позволяет создавать отдельную оптимизированную страницу для поисковой системы и отдельную страницу, рассчитанную на предпочтения пользователя. Когда поисковый робот проходит по сайту, то он обнаруживает ту страницу, которая оптимизирована под поисковую систему. Когда на сайт заходит пользователь, то появляется страница, оптимизированная с расчетом на пользователя. Положительная сторона данной технологии оптимизации страниц заключается в том, что пользователь не видит страниц, оптимизированных под поисковые системы, которые, с точки зрения языковых норм, являются некорректными из-за постоянного повторения ключевых слов. Данная технология помогает скрывать код источника, используя специальные скрипты клоакинга.

Существует два способа, с помощью которых скрипт клоакинга определяет, кто посещает сайт, пользователь или поисковая система:

1) Первый и самый простой способ – проверка параметра «User-Agent». Каждый раз при запросе страницы сайта указывается данный параметр. Если страницу запрашивает поисковый робот, параметр содержит имя поисковой системы. Если скрипт клоакинга распознал поисковую систему, то предоставляется страница, которая специально была оптимизирована под эту поисковую систему. Если распознавание поисковой системы не произошло, то считается, что запрос исходит от пользователя.

Хотя этот способ очень простой, он наименее надежный. Содержимое параметра «User-Agent» легко изменить, так что посмотреть оптимизированные страницы под разные поисковые системы мира не составит особого труда.

2) Второй и более сложный способ заключается в использовании IP. Используется база данных IP, содержащая список IP адресов всех известных поисковых роботов. Когда посетитель (поисковая система или пользователь) запрашивает страницу, в скрипте клоакинга происходит проверка IP адреса посетителя. Если IP адрес содержится в базе данных IP, следовательно, посетитель - поисковая система, если адрес не найден, посетитель – пользователь.

Хотя данный способ сложнее, он более надежный.

Возникает вопрос: стоит ли прибегать к клоакингу?

Ответ однозначный: нет! И этому есть простое объяснение: клоакинг не любят поисковые системы, они могут забанить Ваш сайт. Использование подобных методов не позволяет поисковым системам гарантировать релевантные результаты поиска. А ведь релевантный поиск – один из основных критериев оценки поисковой системы!

Естественно, возникает вопрос, как поисковая система может обнаружить присутствие клоакинга на странице. Существует несколько способов:

1) Поисковые системы направляют на сайт поискового робота, который не сообщает название поисковой системы в параметре «User-Agent». Если поисковая система обнаружит, что страница, представленная поисковому роботу, отличается от страницы, содержащей название поисковой системы в параметре «User-Agent», значит, на сайте используется клоакинг.

2) Если сайт использует клоакинг, на основе IP, поисковые системы могут отправить поискового робота с другого IP адреса. Если поисковая система обнаружит, что страница, представленная поисковому роботу с новым IP адресом отличается от страницы, содержащей известный IP адрес, значит, на сайте используется клоакинг.

3) Наконец, сайт может посетить представитель поисковой системы и исследовать его на наличие клоакинга. Если представленная страница будет отличаться от страницы, представленной поисковой системе, значит, на сайте используется клоакинг.

По информации searchenginechannel.com

По сути, данная технология имеет много полезных применений. Предположим, цель состоит в выдаче разных страниц пользователям с разными браузерами. Ничего криминального в этом нет. Но когда мы говорим о поисковом клоакинге, все намного серьезнее.Поисковый клоакинг сурово карается поисковыми системами. Сегодня эта технология полностью не внедрена в Рунете, хочется надеяться, что головная боль зарубежных поисковых систем не станет знакома отечественным поисковикам.

Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Ведьма
    больше года назад
    Я всегда говорил, что поисковик и пользователь должен видеть одинаковые страницы! Подробнее на http://e2epro.com/
    -
    0
    +
    Ответить
  • Карапуз
    больше года назад
    Я завел эту тему у себя на форуме http://sergpro.ru/ и видимо был прав - это важно!
    -
    0
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Примеры использования ChatGPT в SEO-стратегии
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Если кто то хочет протестировать Cat GPT в SЕО проектах на базе нашего агенства, приглашаем наудалкнную работу Tg: @thegoodlink
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Анна
1
комментарий
0
читателей
Полный профиль
Анна - Ха, занятно. А я еще видела полезное описание тут digitalproweb.ru/sozdanie-sajtov-vybrat-konstruktory-ili-cms
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Как мы увеличили для клиента трафик из поиска в 7 раз. Кейс
Кирилл Половников
2
комментария
0
читателей
Полный профиль
Кирилл Половников - Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией. Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Как в перегретой нише получать заявки и добиться конверсии в 19%
ZRZ8GCHIZ6 www.yandex.ru
1
комментарий
0
читателей
Полный профиль
ZRZ8GCHIZ6 www.yandex.ru - ZRZ8GCHIZ6 www.yandex.ru
Что такое Яндекс Советник, и кому от него жить хорошо
Мама Стифлера
1
комментарий
0
читателей
Полный профиль
Мама Стифлера - Вызывает сожаление, что вы не осознаете, что Яндекс.Советник может быть рассмотрен как форма рэкета, которая заставляет компании, размещающиеся в Яндекс.Маркете, выплачивать дополнительные финансовые средства, повышая в конечном итоге прибыль Яндекс.Маркета, но не принесет пользы для посетителей сайта.
Самые быстрорастущие доменные зоны в 2023 году. Исследование RU-CENTER
Станислав
1
комментарий
0
читателей
Полный профиль
Станислав - С 2019 года количество доменов в зоне .ru остается на одном и том же уровне - около 5 млн. Все изменения на уровне 1% от этого объема в плюс или минус
Как дожать сайт до ТОПа? Выжимаем весь сок из SEO под Яндекс и Google
Фанит
2
комментария
0
читателей
Полный профиль
Фанит - Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Особенности внутренней перелинковки для крупных сайтов
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Haaaa! Articol despre "перелинковка" cu scopul de a acapara BackLink-uri. Înțeleg cu exemplele din zona ru, da chiar sa folosiți și md, panda, serios?
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
386
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
118
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!