×
Россия +7 (495) 139-20-33

Клоакинг — зло?

Россия +7 (495) 139-20-33
Шрифт:
1 5081
Оглавление
Подпишитесь на нас в Telegram

От переводчика

До прочтения этой статьи Рэнда Фишкина на SEOmoz я думал, что клоакинг в любом виде — это исключительно черный метод продвижения, за который можно получить по шапке от всевидящего и всезнающего Google. Но это оказалось заблуждением. Я просто не догадался приложить основную характеристику клоакинга — выдача различного содержания поисковым ботам и рядовым пользователям — к белым сайтам, которыми я пользуюсь каждый день.

Этот пост будет всецело посвящен различным видам клоакинга и тому, к каким из них Google относится терпимо, и какие на дух не переносит. Здесь не будет никаких «тем», просто интересная информация для расширения seo-кругозора.

Совершенно очевидно, что если вы занимаетесь открытым и наглым клоакингом, Google (и другие поисковые системы) удалят ваш сайт из индекса. Но во многих случаях клоакинг допустим, как с позиции пользователя, так и с позиции поисковых систем.

Начнем со списка ресурсов, которые в настоящее время практикуют клоакинг совершенно безнаказанно.

  • Google (ага, он самый). Поищите в Google гугловские же сервисы типа "google toolbar", "google translate" или "adwords" и пр. и посмотрите, какие урлы выдает поисковик. А теперь перейдите по ссылке и посмотрите, во что превращается адрес страницы по мере ее загрузки. Мало того, содержание целевой страницы иногда отличается от того, что хранится с кэше, независимо от того, залогинены вы в Google или нет.
  • NYTimes.com. Встроенные рекламные страницы, приглашение залогиниться/зарегистрироваться на сайте после 5 кликов, архивные данные — все это человек видит иначе, чем поисковые боты.
  • Forbes.com. На этом сайте невозможно даже взглянуть на главную страницу, не насладившись прежде рекламным роликом на пол-экрана. Кэшированные страницы тоже часто отличаются от того, что видит на сайте человек.
  • Wine.com. Даже если не брать во внимание редиректы, каждый пользователь, прежде чем посмотреть цены (как, впрочем, и страницы), должен выбрать штат. Вряд ли это требуется от поисковых ботов.
  • WebmasterWorld.com. Этот сайт одним из первых ввел (теперь общепринятую) практику нескольких бесплатных кликов по сайту, после которых идет предложение записаться в члены сайта. Но на боты Google это не распространяется.
  • Yelp.com. Активное применение геотаргетинга на базе куков. Очень и очень популярная форма регионального таргетинга, которую используют сотни сайтов.
  • Amazon.com. Благодаря кукам и данным с прошлых посещений Амазон может варьивать, например, выдачу по рекомендуемым товарам.
  • iPerceptions.com. По сути сайт не использует клоакинг, но всплывающие окна на сайте видны только с тех компьютеров, где браузеры поддерживают куки (причем видны он не только на этом сайте, а и на доброй сотне других). Не говоря уже о том, что сайт принадлежит одному из сотрудников Google.
  • ComputerWorld.com. Если бы вы были ботом, вы бы никогда не увидели рекламы на весь экран, всплывающих окон и даже некоторых javascript’ов, которые срабатывают только тогда, когда на сайт заходит реальный человек.
  • Scribd.com. Машина видит на сайте исключительно html-текст. Человек видит то, что видит.
  • Nike.com. Google показывает, что сайт состоит из более чем полутора миллионов страниц. Только почему-то все эти страницы начинаются с одного и того же flash-ролика и вы их не видите, если у вас не работает Flash.
  • Wall Street Journal. Бот Google совершенно не видит ссылки pay to access, которая стоит после первого абзаца на некоторых статьях на сайте.

Этот список можно продолжать и продолжать, но суть и без этого ясна: клоакинг не всегда зло, особенно если вы:

  • крупный и всемирно известный бренд или
  • маскируете страницы так, что от этого получают пользу не только поисковые боты, но и живые посетители сайта.

Классификация типов клоакинга

1. Кристально белый • Разрешенные приемы: распознавание куков, javascript’ы.
• Цель: оптимизация целевых страниц, предоставление контента зарегистрированным пользователям.
2. Почти белый • Разрешенные приемы: все, что выше, + User Agent.
• Цель: геотаргеттинг, определение типа браузера, минимизация расхода трафика на ботов."
3. Светло-серый • Разрешенные приемы: все, что выше, + User Agent / просмотр информации об IP-адресе.
• Цель: редирект ссылочного веса на аналогичные страницы, показ скрытого контента."
4. Темно-серый • Разрешенные приемы: все.
• Цель: показ менее оптимизированного контента, редирект ссылочного веса на левые страницы."
5. Черный • Разрешенные приемы: все.
• Цель: показ контента, совершенно не соответствующего поисковому запросу."

1. Кристально белый

На том же SEOmoz есть платная подписка, содержимое которой могут видеть только ее участники. Технически поисковые боты и некоторые посетители видят разные вещи, но у них все основано на куках . Вообще, мы (SEOmoz) могли бы принять участие в программе Google News Первый клик бесплатный, но до сегодняшнего дня мы этого не сделали.

2. Почти белый

Геотаргетингом балуется Craigslist.org, для того, чтобы определить, откуда приходит пользователь и на страницу какого города он хочет попасть. Представители Google открыто заявили, что до тех пор, пока Craigslist показывает ботам те же страницы, что и посетителям, такое поведение сайта не нарушает правил. Только вот, боты видят совсем не те страницы, что посетители (боты редиректятся на страницу, которую я могу увидеть только в кэше Google), — по логике вещей они и не должны их видеть, ведь боту нужно скормить весь контент сайта, а не только объявления под Нью-Йорк или Сан-Франциско. Однако такое нарушение правил не приводит к серьезным последствиям, потому что, по большому счету, и пользователи, и поисковые системы получают то, что им нужно.

3. Светло-серый

На сайтах, где размещаются большие статьи, как правило, стоят ссылки вроде «прочитать статью» или «распечатать статью» и т.д. в том же духе. Когда на вот эти варианты одной и той же статьи появляется несколько ссылок с разных источников (блоги, соц. сайты), поисковики начинают их индексировать и пенализировать за дублированый контент. Чтобы этого избежать, на второстепенные ссылки ставится 301-й редирект, и тогда весь ссылочный вес направляется на оригинальную статью. Но опять же, несмотря на нарушение правил, этот метод приносит пользу как посетителям (они переходят на оригинал статьи), так и поисковым системам (у Ask.com и MSN все еще есть проблемы с определением дублированного контента, да и по большому счету, у Yahoo! и Google не все с этим гладко). Т.е. авторитетным сайтам за это точно ничего не грозит.

4. Темно-серый

Некоторые партнерки вместо того, чтобы редиректить ссылочный вес с партнерских ссылок на страницы, куда они должны вести, редиректят его на страницы, которые нужно подпитать ссылками и продвинуть в выдаче. Это не особенно отражается на пользователях, которые ищут, на что ведет партнерская ссылка, но это искусственно повышает позиции страниц, на которые трафик не должен был переходить. Такие действия очень близки к черным методам, поэтому поисковики за такое наказывают.

5. Черный

Приведу такой пример. Недавно я ввел в поиск Google запрос inurl:sitemap.xml (в надежде узнать, сколько ресурсов используют карту сайта) и на 9-м месте в выдаче обнаружил странный урл www.acta-endo.ro/new/viagra/sitemap.xml.html, которая привела меня... (да вы сами знаете, куда приводят такие ссылки — прим. переводчика). Если вы попадаете на контент, которого поисковая система не видит, и который нерелевантен вашему запросу, я считаю это черным методом.

Вывод

Мы рекомендуем своим клиентам и кристально, и почти белые, и «светло-серые» методы, и будем это делать и дальше, где и когда это имеет смысл.

Пусть представители поисковиков и осуждают публично подобные тактики, на самом деле все они разрешают пользоваться теми или иными формами клоакинга (по крайней мере вплоть до «светло-серых»).

Основная моя мысль в том, что не стоит пугаться какой-либо тактики только потому, что где-то слышали, что это черный метод. Опирайтесь на собственный анализ, тестрируйте неклиентские сайты, и делайте то, что больше всего поможет бизнесу вашего клиента.
И не подумайте, что этой статьей я призываю вас к использованию клоакинга на ваших сайтах, я только лишь предлагаю переоценить распределение между черным и белым в отношении клоакинга.


Рэнд Фишкин aka randfish, CEO и сооснователь SEOmoz.

Перевод: Богдан Глушак, автор блога Profit Hunter


Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Примеры использования ChatGPT в SEO-стратегии
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Если кто то хочет протестировать Cat GPT в SЕО проектах на базе нашего агенства, приглашаем наудалкнную работу Tg: @thegoodlink
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Анна
1
комментарий
0
читателей
Полный профиль
Анна - Ха, занятно. А я еще видела полезное описание тут digitalproweb.ru/sozdanie-sajtov-vybrat-konstruktory-ili-cms
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Как мы увеличили для клиента трафик из поиска в 7 раз. Кейс
Кирилл Половников
2
комментария
0
читателей
Полный профиль
Кирилл Половников - Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией. Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Как в перегретой нише получать заявки и добиться конверсии в 19%
ZRZ8GCHIZ6 www.yandex.ru
1
комментарий
0
читателей
Полный профиль
ZRZ8GCHIZ6 www.yandex.ru - ZRZ8GCHIZ6 www.yandex.ru
Что такое Яндекс Советник, и кому от него жить хорошо
Мама Стифлера
1
комментарий
0
читателей
Полный профиль
Мама Стифлера - Вызывает сожаление, что вы не осознаете, что Яндекс.Советник может быть рассмотрен как форма рэкета, которая заставляет компании, размещающиеся в Яндекс.Маркете, выплачивать дополнительные финансовые средства, повышая в конечном итоге прибыль Яндекс.Маркета, но не принесет пользы для посетителей сайта.
Самые быстрорастущие доменные зоны в 2023 году. Исследование RU-CENTER
Станислав
1
комментарий
0
читателей
Полный профиль
Станислав - С 2019 года количество доменов в зоне .ru остается на одном и том же уровне - около 5 млн. Все изменения на уровне 1% от этого объема в плюс или минус
Как дожать сайт до ТОПа? Выжимаем весь сок из SEO под Яндекс и Google
Фанит
2
комментария
0
читателей
Полный профиль
Фанит - Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Особенности внутренней перелинковки для крупных сайтов
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Haaaa! Articol despre "перелинковка" cu scopul de a acapara BackLink-uri. Înțeleg cu exemplele din zona ru, da chiar sa folosiți și md, panda, serios?
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
386
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
118
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!