Россия+7 (495) 960-65-87

Вопрос недели: можно ли размещать на одном хостинге сайты одной тематики

Россия+7 (495) 960-65-87
Шрифт:
3 7296

Продолжаем еженедельную рубрику «Вопрос недели». Сегодня решаем такую ситуацию:

Можно ли размещать на одном хостинге под одним аккаунтом два сайта одной тематики (тексты и контакты уникальные)? Как на это реагируют роботы поисковых систем?

Алексей Бузин, генеральный директор компании «СЕО-Импульс»

На наш взгляд точно ответить на данный вопрос нельзя. Так как в нашей практике были случаи склейки аффилиатов (двух сайтов одного клиента по той же тематике), которые находились на разных хостингах, имели разные контактные данные, контент и юридическую информацию. А также есть сайты, которые находятся по сей день на одном хостинге и уже на протяжении 4-х лет оба стоят в топ 10 по многим одинаковым запросам, то есть фильтр-аффилиат на них не наложен. Многое зависит от случая и от «стука» конкурентов Яндексу.

Но как общая рекомендация, если вы решили два сайта делать и продвигать по одной тематике - максимально разделить эти два сайта: хостинг, владелец домена, контакты, контент, даже желательно, чтобы цены на товары и услуги немного отличались. В этом случае риски наложения «фильтра аффилированности» можно будет свести к минимуму.

Андрей Желудевич, директор b-l.by

Если структура сайтов не дублируется, то все хорошо, можно размещать, роботы ничего не заподозрят.

Если же дублируется, и вы хотите продвинуть в топ 2 оба сайта по аналогичным запросам, то есть несколько нюансов:

1. Позаботьтесь о создании отличных друг от друга правил генерации URL, метаданных и атрибутов ALT для изображений.

2. Контакты должны быть полностью уникальны, не только телефон и почта, но и юр. адрес, название организации, ИНН/КПП. Если второго бизнес-юнита нет, просто скройте эти данные на сайте-близнеце.

3. Желательно, чтобы дизайн у сайтов различался.

4. Разместите один из доменов на отдельный IP-адрес, его можно запросить в аренду у вашего хостинг-провайдера.

Андрей Ефремов, руководитель отдела продвижения webit

В данном случае опасения могут быть связаны с тем, что сайты будут признаны аффилиатами, т.к. история уже знает такие случаи.

Хотя Яндекс и отрицает наличие такого термина как «аффилиат-фильтр», но фактически его влияние есть и оно вполне ощутимо. Так сайты, признанные аффилиатами, одновременно не показываются высоко в выдаче по одним и тем же поисковым запросам.

Судя по наблюдениям, на признание аффилиатами могут повлиять:

  • одинаковые контактные данные,
  • один владелец у доменов,
  • крайне близкий ассортимент/контент,
  • нахождение сайтов на одном сервере.

Очевидно, что размещение сайтов одной тематики на одном хостинге подвергает сайты определенному риску быть аффилированными. Однако нужно понимать, что это лишь один из многих факторов, который учитывается поисковым алгоритмом и не самый важный.

Аффилирование возможно как в автоматическом (например, по одинаковым контактным данным в Яндекс.Справочнике), так и в ручном режиме (например, по стуку конкурентов). При этом во втором случае избавиться от фильтра будет крайне тяжело.

Желающих поделиться своими вариантами решения проблемы приглашаем в комментарии.

Если вы хотите получить ответ на свой вопрос в рубрике «Вопрос недели», пишите нам в социальных сетях или на почту редактору darya@seonews.ru.

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Случилось что-то важное? Поделитесь новостью с редакцией.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Гость
    больше года назад
    Интересует а как определить в выдаче что сайт аффелирован однозначно, ведь занимаясь вторым по началу не понятно его не найти в поиске по причине аффелированности или по другим причинам?
    -
    0
    +
    Ответить
  • Вадим
    больше года назад
    Вопрос немного в тему.
    Есть сайт который спарсил товары с текстами и фото с моего интернет магазина, а также с других со своей наценкой в 30 % якобы будет продавать наш ассортимент с данной наценкой. Не суть.
    Просто обидно что некоторые товары с уникальным фото и описанием украдены, а если пробивать по названию, то некоторые товары стоят в яндексе выше нашего товара.
    Это подтолкнуло меня к тому что:
    - надо ставить минимальную защиту от ботов: фильтрация по user ag...
    Вопрос немного в тему.
    Есть сайт который спарсил товары с текстами и фото с моего интернет магазина, а также с других со своей наценкой в 30 % якобы будет продавать наш ассортимент с данной наценкой. Не суть.
    Просто обидно что некоторые товары с уникальным фото и описанием украдены, а если пробивать по названию, то некоторые товары стоят в яндексе выше нашего товара.
    Это подтолкнуло меня к тому что:
    - надо ставить минимальную защиту от ботов: фильтрация по user agent, по частоте обращения, блокировка по ip, защита csp. А также защита фото с наложением ватермарка.
    - сайт должен максимально быстро индексироваться поисковиками, для это ускоряем сайт до предела, постим новые товары в соцсети, на новые товары и разделы введут ссылки с главной страницы, чаще обновлять yml and sitemap.

    Но всё равно, мне не нравится то что кто то скопировал мои труды (оригинальные фото и тексты) и используют в своих коммерческтх целях. Полностью скопирована структура. Понизил им оценку в wot, avast.

    Как еще можно таких наказать?
    -
    0
    +
    Ответить
  • Anfilive
    больше года назад
    А что если сайтов 200 (партнерская сеть на единой платформе с 2-3 шаблонами) каждый сайт - отдельная компания с уникальными адресами. Вся продукция одинаковая (допустим у нас есть завод по производству окон, у которого 200 партнеров - маленьких магазинов по всему снг и мы предоставляем им готовый сайт с уникальными текстами, но одинаковыми шаблонами.

    Почему такие сайты должны попадать под фильтр, ведь все чисто. все компании существуют, весь контент уникален, но наход...
    А что если сайтов 200 (партнерская сеть на единой платформе с 2-3 шаблонами) каждый сайт - отдельная компания с уникальными адресами. Вся продукция одинаковая (допустим у нас есть завод по производству окон, у которого 200 партнеров - маленьких магазинов по всему снг и мы предоставляем им готовый сайт с уникальными текстами, но одинаковыми шаблонами.

    Почему такие сайты должны попадать под фильтр, ведь все чисто. все компании существуют, весь контент уникален, но находятся все в одном месте с одинаковым ip.

    Пытаюсь решить эту проблему в гугле (яндекс более-менее адекватен и в основном сайты растут вверх)

    Люди рекомендуют пользоваться клоудфлар
    -
    0
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Google Data Studio: делаем красивые отчеты по контекстной рекламе для клиентов
Askar Seitov
1
комментарий
0
читателей
Полный профиль
Askar Seitov - помогите! не могу понять почему по инструкции в вашей статье добавляю вычистяемые поля просто копирую ваш код, но датастудио выдает ошибку на этот код: Синтаксическая ошибка: Недопустимый входной символ. Убедитесь, что в формуле нет кавычек-лапок.. как это исправить? я все варианты кавычек уже попробовал
Сайт на WordPress: за и против
Мира Смурков
1
комментарий
0
читателей
Полный профиль
Мира Смурков - Людмила, я согласен с большинством комментаторов. Вы хоть один полноценный магазин сделали на этих движках? Woocommerce это система с супер возможностями. И к ней есть дополнительные модули, с функционалом, который вряд ли появиться на Битрикс. А самому это программировать - сотни тысяч рублей на разработку. А приведя в пример сложности с robots.txt и Sitemap вы ставите под вопрос вашу компетенцию в понимании Интернет-бизнеса и веб-разработки в целом. Во-первых это такие мелочи, а во-вторых это все делается на вордпресса за 2 минуты, и опять же с возможностями многократно превышающими Битрикс.
#SEOnews14: мы празднуем – вы получаете подарки!
Rizat Sundetov
1
комментарий
0
читателей
Полный профиль
Rizat Sundetov - 14
Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
1qa
1
комментарий
0
читателей
Полный профиль
1qa - 87 Performance 95 Accessibility 79 Best Practices 95 SEO аудит точнее будет
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Дмитрий
1
комментарий
0
читателей
Полный профиль
Дмитрий - Здравствуйте, на сайте возможно несколькими путями дойти до почти одинаковой страницы, те отличаться будет только незначительная часть H1, а контент будет одинаковым, дело в применимости автозапчастей к разным автомобилям. Что из этого будет каноничной ссылкой и какие есть пути для решения подобных ситуаций? 1 - bpauto.ru/catalog/audi/audi-a6/a6-iv-c7-sedan-2011-2014/kuzov-naruzhnaya-chast/dveri-i-komplektuyushchie/dver-perednyaya-levaya/ 2 - bpauto.ru/catalog/audi/audi-a6/a6-iv-c7-rest-sedan-2014-n-v-/kuzov-naruzhnaya-chast/dveri-i-komplektuyushchie/dver-perednyaya-levaya/
Как выбрать подрядчика для продвижения сайта: 7 уровней воронки поиска
aashutosh
1
комментарий
0
читателей
Полный профиль
aashutosh - data science training institute in noida- Webtrackker Technology (8802820025) providing Data Science Training in Noida. Get ✓ 40 Hours Learning training✓ 70 Hrs Projects ✓ 24 X 7 Support ✓ Job Assistance. WEBTRACKKER TECHNOLOGY (P) LTD. C - 67, sector- 63, Noida, India. E-47 Sector 3, Noida, India. +91 - 8802820025 0120-433-0760 +91 - 8810252423 012 - 04204716 EMAIL:info@webtrackker.com webtrackker.com/Best-Data-Science-Training-Institute-in-Noida.php
Как построить качественный ссылочный профиль на основе конкурентов
Ирина
5
комментариев
0
читателей
Полный профиль
Ирина - Давно сотрудничаю с megaindex.com и считаю данный сервис одним из лучших в сео сегменте рунета да и не только рунета. Пользуюсь их инструментами для аналитики своих работ и выявлению своих и чужих ошибок. Да и ссылочный профиль, как и говорится в данной статье сделать гораздо проще и правильней при помощи как раз мегаиндекса. Добавлю еще что инструмент для поиска конкурентов у мегаиндекса очень удобный и простой в применении.
6 причин, почему нет позиций и трафика
Артур Латыпов
0
комментариев
0
читателей
Полный профиль
Артур Латыпов - Леонид, да 3 пункта повторяется, согласен. Но сильно актуальны и сейчас, смотрим на сайты, приходящие на SEO, которые ранее продвигались, практически на всех можно что из 6 пунктов найти, исправить и ситуация улучшиться оперативно.
Google назвал три главных SEO-фактора
Павел Андрейчук
44
комментария
0
читателей
Полный профиль
Павел Андрейчук - Я бы не стал утверждать что это так. У меня есть ресурс где ссылок.. ну я не знаю, полтинник может быть, вручную проставленные года за 2 и позиции хорошие по могим запросам именно в гугле, в то время как в Яндексе позиции ниже. Хотя конечно с ссылками позиции были бы лучше, наверное, но владелец увы не выделяет бюджет на ссылки.
Чек-лист для аудита рекламных кампаний в Яндекс.Директе и Google Ads
Елена Бикташева
1
комментарий
0
читателей
Полный профиль
Елена Бикташева - Спасибо! Была бы еще возможность скачивания.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
352
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
105
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
69
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!