Продолжаем рубрику «Вопрос недели». Сегодня разговор будет посвящен проблеме, с которой сталкивались многие владельцы сайтов, – сайтам-двойникам.
Добрый день, уважаемая редакция. У меня проблема: у моего только что сделанного интернет-магазина появился сайт-двойник. Причем название и домен у него абсолютно другие (.club домен), но вот содержание полностью скопировано с моего магазина (и копируется где-то раз в неделю). Отправляла письмо и предполагаемому регистратору, и предполагаемому хостеру - тишина. Владелец скрывается под панамской фирмой-посредником. Что делать? Как бороться? Или ничего не делать?
Анатолий Скальский, старший менеджер отдела поискового продвижения агентства i-Media:
В этой ситуации можно предпринять следующее:
Попробовать написать хостингу, где размещен сайт злоумышленников, и регистратору домена с доказательством, что вы ‒ владелец сайта-первоисточника, и настоятельной просьбой дубликат заблокировать. Помогает не всегда, но стоит попробовать.
Обратиться в техподдержку Яндекса с описанием ситуации и просьбой перестать индексировать сайт-дубликат.
Чтобы у злоумышленников не было возможности парсить сайт в будущем, необходимо определить IP-адреса, с которых это происходит, и заблокировать их в настройках сервера вашего сайта.
Используйте дополнительно инструмент «Оригинальные тексты» в Вебмастере Яндекса перед добавлением нового контента на сайте. Это поможет Яндексу в определении первоисточника и послужит аргументом при обращении в ТП Яндекса по вопросу наложения санкций на сайт-дублер.
Дмитрий Шахов, генеральный директор ГК «Ремарка», автор блога bablorub:
Нужно больше деталей. Есть ли этот сайт в индексе, мешает ли в выдаче? Если хостер и регистратор совсем непробиваемые, можно добавлять в контент абсолютные ссылки на себя. Тогда тот сайт будет ссылаться на ваш. В целом обычно такие копии существенного вреда не наносят, если поиск корректно определил авторство и сайт-копия значительно менее авторитетный, чем ваш (не оттянет авторство на себя со временем).
Антон М., ведущий SEO-специалист:
Можно написать в Яндекс, объяснить ситуацию, и, может быть, они пессимизируют сайт-копию. Тут нужно понять масштаб проблемы. Если кусок текста ввести в строку Яндекса и оригинальный сайт будет на первом месте, а дубль на втором и дальше, то проблемы вообще нет. Это он неуникален, а не мы.
А вот если наоборот, то проблема серьезнее. Тут уж точно нужно будет переписываться с Яндексом и подробно описывать проблему и приводить доказательства, чтобы ваш сайт признали в итоге первоисточником.
А так, по-хорошему, в Вебмастере есть сервис «Содержимое сайта», куда нужно загружать тексты сразу после публикации на сайте, чтобы Яндекс знал, что ты первоисточник.
Если копируются только карточки (их технические характеристики и картинки), то это нестрашно. Многие сайты парсят конкурентов, т.к. содержат идентичные товары в каталоге, чтобы не вводить все вручную.
Можно, конечно, заморочиться, пробить IP, с которого идет парсинг раз в неделю, и заблокировать его. Но они могут использовать прокси.
Всех желающих поделиться своими вариантами решения проблемы приглашаем в комментарии.
Если вы хотите получить ответ на свой вопрос в рубрике «Вопрос недели», пишите нам в социальных сетях или на почту редактору darya@seonews.ru.
Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.
Рассказать друзьям:
Нас удобно читать в социальных сетях. Подписывайся!
>> Можно написать в Яндекс, объяснить ситуацию, и, может быть, они пессимизируют сайт-копию. Тут нужно понять масштаб проблемы. Если кусок текста ввести в строку Яндекса и оригинальный сайт будет на первом месте, а дубль на втором и дальше, то проблемы вообще нет. Это он неуникален, а не мы.
> Можно написать в Яндекс, объяснить ситуацию, и, может быть, они пессимизируют сайт-копию.
Были такие случаи?
Яндекс же зеркало рунета, ему все равно кто что у кого позаимствовал, увы.
>>>
А так, по-хорошему, в Вебмастере есть сервис «Содержимое сайта», куда нужно загружать тексты сразу после публикации на сайте, чтобы Яндекс знал, что ты первоисточник.
>>>
Не, бесполезный способ вроде :)
Оригинальные тексты в новом Вебмастере не представлены, а это говорит о том, что даже сам Яндекс от них отказался, так что заморачиваться бессмысленно.
Сергей Ерофеев -
Спасибо за комментарий!
Вы правы, если за CMS следит заинтересованный профессионал - риски минимальны. Но мы же с вами понимаем, что:
а) Не каждый разработчик делает все, как "для себя".
б) После создания сайта разработчик редко остается на проекте
в) Часто разработчик не является маркетологом. В этом случае принцип "функционал работает и этого достаточно" может быть на первом месте.
Мы тоже видели большое количество хороших и качественных проектов на бесплатных CMS, но проблемных проектов мы видели сильно больше. Просто статистика.
sarges -
Нужно учитывать и тот факт, что со временем методы продвижения меняются и необходимо подстраиваться под новые реалии. Посоветую заглянуть на zenlink.ru/blog/kak-izmenilsja-internet-marketing-za-10-let и почитать статью, там рассказывается о том, как изменился интернет-маркетинг за последние 10 лет, какие сейчас тенденции и какие прогнозы в этой сфере.
Seodm.ru -
Ааа по мне, сам seo специалист, вероятность внедрения необходимого контента на тильда того же блока этапом работы или преимуществ, намного выше чем на движке. А что тильда что движок малый бизнес норм продвигается особо супер разработки не требуется
Кирилл Половников -
Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией.
Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Павел -
Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов.
Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Игорь Скляр -
Действительно, изначально рост был именно по информационным запросам. Но рост позиций и трафика по информационным запросам положительно повлиял и на связанные позиции по коммерческим запросам и сдвинул видимость с мёртвой точки
Фанит -
Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Александр -
Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.