×
Россия +7 (495) 139-20-33

Клоакинг — зло?

Россия +7 (495) 139-20-33
Шрифт:
1 3622

От переводчика

До прочтения этой статьи Рэнда Фишкина на SEOmoz я думал, что клоакинг в любом виде — это исключительно черный метод продвижения, за который можно получить по шапке от всевидящего и всезнающего Google. Но это оказалось заблуждением. Я просто не догадался приложить основную характеристику клоакинга — выдача различного содержания поисковым ботам и рядовым пользователям — к белым сайтам, которыми я пользуюсь каждый день.

Этот пост будет всецело посвящен различным видам клоакинга и тому, к каким из них Google относится терпимо, и какие на дух не переносит. Здесь не будет никаких «тем», просто интересная информация для расширения seo-кругозора.

Совершенно очевидно, что если вы занимаетесь открытым и наглым клоакингом, Google (и другие поисковые системы) удалят ваш сайт из индекса. Но во многих случаях клоакинг допустим, как с позиции пользователя, так и с позиции поисковых систем.

Начнем со списка ресурсов, которые в настоящее время практикуют клоакинг совершенно безнаказанно.

  • Google (ага, он самый). Поищите в Google гугловские же сервисы типа "google toolbar", "google translate" или "adwords" и пр. и посмотрите, какие урлы выдает поисковик. А теперь перейдите по ссылке и посмотрите, во что превращается адрес страницы по мере ее загрузки. Мало того, содержание целевой страницы иногда отличается от того, что хранится с кэше, независимо от того, залогинены вы в Google или нет.
  • NYTimes.com. Встроенные рекламные страницы, приглашение залогиниться/зарегистрироваться на сайте после 5 кликов, архивные данные — все это человек видит иначе, чем поисковые боты.
  • Forbes.com. На этом сайте невозможно даже взглянуть на главную страницу, не насладившись прежде рекламным роликом на пол-экрана. Кэшированные страницы тоже часто отличаются от того, что видит на сайте человек.
  • Wine.com. Даже если не брать во внимание редиректы, каждый пользователь, прежде чем посмотреть цены (как, впрочем, и страницы), должен выбрать штат. Вряд ли это требуется от поисковых ботов.
  • WebmasterWorld.com. Этот сайт одним из первых ввел (теперь общепринятую) практику нескольких бесплатных кликов по сайту, после которых идет предложение записаться в члены сайта. Но на боты Google это не распространяется.
  • Yelp.com. Активное применение геотаргетинга на базе куков. Очень и очень популярная форма регионального таргетинга, которую используют сотни сайтов.
  • Amazon.com. Благодаря кукам и данным с прошлых посещений Амазон может варьивать, например, выдачу по рекомендуемым товарам.
  • iPerceptions.com. По сути сайт не использует клоакинг, но всплывающие окна на сайте видны только с тех компьютеров, где браузеры поддерживают куки (причем видны он не только на этом сайте, а и на доброй сотне других). Не говоря уже о том, что сайт принадлежит одному из сотрудников Google.
  • ComputerWorld.com. Если бы вы были ботом, вы бы никогда не увидели рекламы на весь экран, всплывающих окон и даже некоторых javascript’ов, которые срабатывают только тогда, когда на сайт заходит реальный человек.
  • Scribd.com. Машина видит на сайте исключительно html-текст. Человек видит то, что видит.
  • Nike.com. Google показывает, что сайт состоит из более чем полутора миллионов страниц. Только почему-то все эти страницы начинаются с одного и того же flash-ролика и вы их не видите, если у вас не работает Flash.
  • Wall Street Journal. Бот Google совершенно не видит ссылки pay to access, которая стоит после первого абзаца на некоторых статьях на сайте.

Этот список можно продолжать и продолжать, но суть и без этого ясна: клоакинг не всегда зло, особенно если вы:

  • крупный и всемирно известный бренд или
  • маскируете страницы так, что от этого получают пользу не только поисковые боты, но и живые посетители сайта.

Классификация типов клоакинга

1. Кристально белый • Разрешенные приемы: распознавание куков, javascript’ы.
• Цель: оптимизация целевых страниц, предоставление контента зарегистрированным пользователям.
2. Почти белый • Разрешенные приемы: все, что выше, + User Agent.
• Цель: геотаргеттинг, определение типа браузера, минимизация расхода трафика на ботов."
3. Светло-серый • Разрешенные приемы: все, что выше, + User Agent / просмотр информации об IP-адресе.
• Цель: редирект ссылочного веса на аналогичные страницы, показ скрытого контента."
4. Темно-серый • Разрешенные приемы: все.
• Цель: показ менее оптимизированного контента, редирект ссылочного веса на левые страницы."
5. Черный • Разрешенные приемы: все.
• Цель: показ контента, совершенно не соответствующего поисковому запросу."

1. Кристально белый

На том же SEOmoz есть платная подписка, содержимое которой могут видеть только ее участники. Технически поисковые боты и некоторые посетители видят разные вещи, но у них все основано на куках . Вообще, мы (SEOmoz) могли бы принять участие в программе Google News Первый клик бесплатный, но до сегодняшнего дня мы этого не сделали.

2. Почти белый

Геотаргетингом балуется Craigslist.org, для того, чтобы определить, откуда приходит пользователь и на страницу какого города он хочет попасть. Представители Google открыто заявили, что до тех пор, пока Craigslist показывает ботам те же страницы, что и посетителям, такое поведение сайта не нарушает правил. Только вот, боты видят совсем не те страницы, что посетители (боты редиректятся на страницу, которую я могу увидеть только в кэше Google), — по логике вещей они и не должны их видеть, ведь боту нужно скормить весь контент сайта, а не только объявления под Нью-Йорк или Сан-Франциско. Однако такое нарушение правил не приводит к серьезным последствиям, потому что, по большому счету, и пользователи, и поисковые системы получают то, что им нужно.

3. Светло-серый

На сайтах, где размещаются большие статьи, как правило, стоят ссылки вроде «прочитать статью» или «распечатать статью» и т.д. в том же духе. Когда на вот эти варианты одной и той же статьи появляется несколько ссылок с разных источников (блоги, соц. сайты), поисковики начинают их индексировать и пенализировать за дублированый контент. Чтобы этого избежать, на второстепенные ссылки ставится 301-й редирект, и тогда весь ссылочный вес направляется на оригинальную статью. Но опять же, несмотря на нарушение правил, этот метод приносит пользу как посетителям (они переходят на оригинал статьи), так и поисковым системам (у Ask.com и MSN все еще есть проблемы с определением дублированного контента, да и по большому счету, у Yahoo! и Google не все с этим гладко). Т.е. авторитетным сайтам за это точно ничего не грозит.

4. Темно-серый

Некоторые партнерки вместо того, чтобы редиректить ссылочный вес с партнерских ссылок на страницы, куда они должны вести, редиректят его на страницы, которые нужно подпитать ссылками и продвинуть в выдаче. Это не особенно отражается на пользователях, которые ищут, на что ведет партнерская ссылка, но это искусственно повышает позиции страниц, на которые трафик не должен был переходить. Такие действия очень близки к черным методам, поэтому поисковики за такое наказывают.

5. Черный

Приведу такой пример. Недавно я ввел в поиск Google запрос inurl:sitemap.xml (в надежде узнать, сколько ресурсов используют карту сайта) и на 9-м месте в выдаче обнаружил странный урл www.acta-endo.ro/new/viagra/sitemap.xml.html, которая привела меня... (да вы сами знаете, куда приводят такие ссылки — прим. переводчика). Если вы попадаете на контент, которого поисковая система не видит, и который нерелевантен вашему запросу, я считаю это черным методом.

Вывод

Мы рекомендуем своим клиентам и кристально, и почти белые, и «светло-серые» методы, и будем это делать и дальше, где и когда это имеет смысл.

Пусть представители поисковиков и осуждают публично подобные тактики, на самом деле все они разрешают пользоваться теми или иными формами клоакинга (по крайней мере вплоть до «светло-серых»).

Основная моя мысль в том, что не стоит пугаться какой-либо тактики только потому, что где-то слышали, что это черный метод. Опирайтесь на собственный анализ, тестрируйте неклиентские сайты, и делайте то, что больше всего поможет бизнесу вашего клиента.
И не подумайте, что этой статьей я призываю вас к использованию клоакинга на ваших сайтах, я только лишь предлагаю переоценить распределение между черным и белым в отношении клоакинга.


Рэнд Фишкин aka randfish, CEO и сооснователь SEOmoz.

Перевод: Богдан Глушак, автор блога Profit Hunter


(Голосов: 6, Рейтинг: 4.83)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
14
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
demimurych
5
комментариев
0
читателей
Полный профиль
demimurych - о господи. это для регионального сайта? в яндексе? где у сайта по региону конкурентов меньше чем выдачи на двух страницах из которых перваш это реклама москвы? потешно ей богу. ктото чего то не понеимает.
Зачем подменять контент на сайте: разбираем инструмент и развенчиваем мифы
Дмитрий Сульман
4
комментария
0
читателей
Полный профиль
Дмитрий Сульман - Все верно, об этом я и говорю. У крупных компаний есть много данных и они имеют доступ к дорогим технологиям и решениям для персонализации контента. Топовые западные сервисы для персонализации, такие как RichRelevance или Dynamic Yield, стоят от нескольких тысяч до десятков тысяч долларов в месяц. Понятно, что малый бизнес не может себе этого позволить. Да даже если бы чисто теоретически и мог, то это вряд ли бы имело хоть какой-то смысл. Во-первых, у малого бизнеса недостаточно данных, чтобы подобные алгоритмы персонализации начали эффективно работать, а во-вторых, тот профит, который МСБ получит от персонализации, никогда не покроет таких расходов. Мы же предлагаем решение, доступное как раз для малого и среднего бизнеса. При этом наше решение комплексное: МультиЧат - это одновременно и инструмент для персонализации, и для коммуникации.
«Аудит, чтобы ты заплакала…», или Что делать, когда получил сторонний аудит сайта
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Воообще, на самом деле здесь двоякое впечатление от таких аудитов. Конечно, для полного глубокого анализа и подготовки рекомендаций по сайту - нужны доступы к системам аналитики и инструментам вебмастера. Но если оценивать подобные аудиты с точки зрения чистого SEO (которое все больше и больше становится лишь малой частью digital-маркетинга, лишь одним из каналов) - они имеют место быть. Но с оговоркой, что они сделаны с учетом анализа конкурентов/отрасли. Современные инструменты и алгоритмы позволяют делать это маркетологам в автоматическом режиме, и даже давать рекомендации - возможностями машинного обучения уже никого не удивишь. Да, полное перечисление "мифического" списка ошибок, построенного по предикативным правилам, да еще и с учетом устаревших особенностей ПС - это явный признак некачественного аудита. В первую очередь потому, что эти "ошибки" следует рассматривать в качестве рекомендаций от ПС (как и говорится в справочнике вебмастера у Яндекса/Google). Однако если эти данные даются с отсылкой на данные о конкурентах, об отрасли, используются методы ML и Natural language processing для обработки исходных данных, кластеризации запросов, классификации страниц/запросов/сайтов, определения структуры документа - такие отчеты имеют право на существование. Но ключевым моментом является то, что подобные инструменты достаточно сложны в разработке, а значит требуют квалифицированных специалистов для их разработки. Которых просто нет у студий рассылающих подобные "сео отчеты". Подобные отчеты по "ошибках" тоже неплохой источник информации, но лишь на 0 этапе анализа сайта. И в принципе, теоретически, возможно почти полное составление "хороших аудитов" без участия маркетолога, на основе лишь открытых данных сайта/внешних источников, но только при соответствующем применении всех современных возможностей анализа данных и рекомендательных систем. И в любом случае подобный "хороший отчет" требует конечного заключения от эксперта.
Как вывести сайт в ТОП 10 Google в 2019 году
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Интересная статья. Подскажите на каких ресурсах расположить ссылки бесплатно по автобезопасности? Наш сайт bastion-center.ru/
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита
Kosta Bankovski
4
комментария
0
читателей
Полный профиль
Kosta Bankovski - Спасибо за приятные слова! Буду и дальше делиться наработками ;)
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Как улучшить репутацию сайта недвижимости с помощью крауд-маркетинга
Евгений
3
комментария
0
читателей
Полный профиль
Евгений - а у вас какое впечатление от статьи?
10 элементов сайта, которые гарантированно отпугнут посетителей
Андрей
2
комментария
0
читателей
Полный профиль
Андрей - Ну типа потому что клиентское seo больше для коммерции предназначено. Типа контентники и сами знают что делать. В коммерции можно тысячу причин найти чтобы поработать с сайтом, а с контентными такие фокусы уже не прокатят, поэтому и не пишут. Всё продвижение для контентников сеошники описывают в трех словах: скорость, качество, систематичность. А, ну ещё конечно же СЯ, как же я про него забыл (фундамент жеть!).
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
362
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
107
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
83
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!