Дублированный контент и как с ним бороться

Россия+7 (495) 960-65-87
Шрифт:
4 48121

Все мы давно знаем, что дублированный контент — это зло, с которым надо беспощадно бороться. Специалисты, которые работают в отрасли поисковой оптимизации не первый год, прекрасно знают, как избежать проблем, связанных с появлением дублированного контента на сайте. Новички же могут забывать о некоторых нюансах, которые ведут к созданию дублей страниц. В особой зоне риска находятся интернет-магазины. Из-за огромного количества страниц, структуры сайта онлайн-торговцев подстерегает вероятность появления дублированного контента. Представляем вашему вниманию 9 возможных причин появления дублей на сайтах интернет-магазинов и советы по их устранению.


  1. Многоаспектная навигация

Создание дублированного контента из-за многоаспектной навигации — очень распространенная проблема для сайтов электронной коммерции. Доходит до того, что одна страница одного и того же товара может иметь свыше 100 вариаций URL из-за многочисленных комбинаций с применением параметров выбора продукта.

Страница без применения фильтрации по категориям.

Та же самая страница с применением фильтров.

Приведенный пример показывает, как запрос добавляется в URL при отображении уточненных результатов. Однако контент на странице остается тем же самым.

Решение проблемы:

Существует несколько способов предотвратить индексацию страниц, появившихся в результате многоаспектной навигации.

  • мета-тег robots

< meta name="robots" content="noindex,follow«>

Атрибут noindex сообщает поисковым системам, что страницу не следует индексировать, follow — продолжать учитывать ссылки.

  • настройка параметров в «Инструментах для Вебмастеров» Google

«Инструменты для Вебмастеров» можно использовать для решения проблем создания динамических страниц. Например, запретить индексировать поисковику URL таких страниц.

  • тег Canonical

Прописав тег rel="canonical«, вы можете сообщить поисковым системам, что определенные URL являются разновидностью или дублированной версией другого URL. Есть случаи, когда поисковые системы игнорируют канонические теги и продолжают индексировать страницы. Поэтому некоторые специалисты советуют использовать этот способ совместно с мета-тегом robots.


  1. Страница заказа товара

Выбирать товары для заказа в каталоге — удобно для пользователей. Но для владельцев интернет-магазинов это еще одна головная боль, так как в результате этого могут появляться страницы с дублированным контентом.

Решение проблемы:

Используйте методы, описанные выше.


  1. Иерархические URL

Несколько лет назад иерархические URL считались лучшим решением для сайтов e-commerce. Но времена меняются, меняется SEO. Сейчас иерархические URL часто могут стать причиной появления страниц с дублированным контентом, показывающих один и тот же товар из одной категории.

Решение проблемы:

Если есть возможность, рекомендуется переписать адреса страниц, убрав фрагменты-узлы, оставив наименование товара. Также можно использовать тег canonical, чтобы передать вес нужной странице и дать понять поисковикам, какая страница — основная.


  1. Страницы поиска

Страницы поиска по каталогу — другой яркий пример появления дублированного контента, от которых страдают многие онлайн-магазины.

Решение проблемы:

Самый простой способ заблокировать поисковикам доступ к страницам поиска по каталогу — воспользоваться robots.txt.

Чтобы заблокировать страницу вроде этой: /shop/catalogsearch/result/?q=testquery, пропишите строку в robots.txt: Disallow: /shop/catalogsearch/.

Если страницы поиска уже проиндексированы, удалите их из индекса с помощью «Инструментов для Вебмастеров».


  1. Интернационализация

Все чаще интернет-магазины запускают международные версии сайтов до того, как переведут весь контент. В результате появляется дублированный контент с описанием товаров с небольшими различиями в URL. Это не очень распространенная проблема, но некоторые сайты с ней сталкиваются.

Решение проблемы:

Перевести контент или, если не успеваете это сделать, заблокировать доступ к страницам без контента.


  1. Пагинация

Пагинация — другая проблема, из-за которой появляется дублированный контент.

Решение проблемы:

Использовать теги rel=next и prev, введенные Google в 2011 г.


  1. ID-сессии

Сессии ID — одна из наиболее раздражающих вещей, с которыми приходится сталкиваться специалистам SEO, так как в результате может появиться неограниченное количество дублированных страниц.

Решение проблемы:

Лучшее решение — остановить сессию ID при создании. Также можно воспользоваться «Инструментами для Вебмастеров» от Google, чтобы сообщить поисковым системам об игнорировании сессий ID.


  1. Страницы для печати

На старых сайтах интернет-магазинов есть возможность отображения печатной версии страницы товара, которая показывает тот же самый контент с другим URL.

Решение проблемы:

Применение мета тега robots (noindex, follow) к динамическим страницам или закрытие каталога в robots.txt.


  1. Страницы отзывов

Отзывы пользователей могут отображаться несколькими способами в зависимости от построения сайта и CMS. На некоторых сайтах есть отзывы на страницах товаров и страницы только с отзывами.

Как видно из примера, страница отзывов содержит тот же самый контент, но с другим URL.

Решение проблемы:

Чтобы избежать индексации этих страниц, воспользуйтесь файлом robots.txt или используйте мета тег robots (если страницы динамические).

Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • alex soleny
    2
    комментария
    0
    читателей
    alex soleny
    больше года назад
    я на joomla тоже все через робот закрыл
    -
    0
    +
    Ответить
  • LUCEfeel
    больше года назад
    Интересная статья, но есть свои ньюансы. К примеру в ручную при огромном кол-ве контента это сделать проблематично
    -
    0
    +
    Ответить
  • Вячеслав
    больше года назад
    Для оптимизации CMS есть множество плагинов, которые позволяют бороться с дублями страниц. Что не может исправить плагин, добиваем в robots.txt  Я использую JOOMLA уже много лет, правильно настроенная CMS дубли не плодит.
    -
    0
    +
    Ответить
  • Тимур и его команда
    больше года назад
    Все эти действия являются постфактум. Нужен анализ и тест систем прежде того чем отключит для индексации.
    Гугъл понимает ети дубли (пункт 1) и не показывает в SERP. Все таки дубли надо убрать ...:))), запретит для индексации.
    Для практические решения, можно ознакомится с опитом нескольких топ ритейлеров. Структура, robots.txt, sitemap...можно все посмотреть и сделать выводы.
    Статья полезная,. редактор-переводчик Демина.
    -
    1
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
32 инструмента в помощь SEO-специалисту
Игорь
1
комментарий
0
читателей
Полный профиль
Игорь - отличная подборка, сам многим из этих сервисов пользуюсь (ETXT, TEXT.RU, Адаптивность, Pingdom Website Speed Test, Google PageSpeed Tools, 2IP, Whois, Букварикс) Правда не мог найти достойного кластеризатора, но потом наткнулся на вот этот seoquick.com.ua/keyword-grouping/ не сочтите за рекламу:) Было бы интересно услышать ваше мнение о нем. Мне очень даже зашел, из-за скорости работы. Как говорит автор - 100 000 запросов за несколько минут. Я с такими цифрами правда не работал, обычно это до 30 000 точно, но работает очень быстро и в правду. Ну и бесплатно, думаю, это был еще один решающий фактор для меня
Исследование: влияние smart-ссылок на продвижение по СЧ-запросам
Анатолий Шевчик
1
комментарий
0
читателей
Полный профиль
Анатолий Шевчик - +1097988
SEO глазами клиентов 2018
Анна Макарова
331
комментарий
0
читателей
Полный профиль
Анна Макарова - Нет, мы не собирали такую информацию.
Не очень удачный кейс продвижения сайта по услуге «Трезвый водитель» в Москве
Александр Селенков
1
комментарий
0
читателей
Полный профиль
Александр Селенков - Работа проделана огромная. Интересный кейс, все детально и понятно изложено.
Два идеальных способа разориться на старте интернет-магазина
Стас
4
комментария
0
читателей
Полный профиль
Стас - Seonews в последнее время такую чушь несет! Где вы таких афторов находите? Статья ничего не стоит и несет чушь! Кто хоть немного понимает в этом так вам и скажет, и такие де комментаторы горе-сеошники, просто смешно читать, вы хоть модерируете ваши статьи или просто для воды на сайте?! Бред сивой кобылы эта статья до самой последней точки!!!
Яндекс перестал индексировать сайты, созданные на Wix
Константин Даткунас
3
комментария
0
читателей
Полный профиль
Константин Даткунас - Было бы интересно посмотреть саму выборку из 10 000 и методику анализа.
4 способа быстро собрать теги для сайта
Рустем Низамутинов
5
комментариев
0
читателей
Полный профиль
Рустем Низамутинов - Расписал и закинул в Google Docs, а то здесь в комментариях ссылки на активны. docs.google.com/document/d/1r0TZLNrQyYLdIzDQsD5YKlMG41HUGQgEep3bxE_ij-M/edit?usp=sharing
Как мы разработали и вывели в ТОП сайт курсов рисования
Иван Стороженко
25
комментариев
0
читателей
Полный профиль
Иван Стороженко - Добрый день. 1)Чаще всего основная проблема заключается, в согласовании с клиентом добавляемого контента и то как он будет отображаться. На данном сайте фото и услуги конечно предоставлял клиент, все остальное уже делали мы. 2)Да в принципе, когда есть команда и понимание, что нужно делать, все идет быстро (опять же основная заминка идет на согласовании с клиентом) 3)Смысла делать новый в данном случает нет. В принципе доделывался полноценный сайт. 4)Когда клиент уже не предоставляет информацию, приходится искать у конкурентов (например с других стран или регионов). Но чаще всего клиент, хоть что-то "подкидывает".
Яндекс: как мы модерируем объявления
Гость
5
комментариев
0
читателей
Полный профиль
Гость - Это ж Яндекс, чего вы ожидали-то? Коммерческая структура с раздутым штатом, задачей которой является заработать больше денег. Любыми методами. Задача всех пользователей посадить на Директ, даже если придется разрушить суть рунета, реализуется по полной программе. Все возражающие караются и выпиливаются. И каждый из сотрудников делает все возможное и невозможное, чтобы реализовать любую дурацкую идею - за это еще и премию выхватить можно. Даже если потом придется выполнять "откат", премиальные уже заплачены. Так было с одним из фильтров Яндекса, так было с купленным им сайтом Кинопоиска, который из русскоязычной энциклопедии кино был превращен за безумные деньги в банальный платный онлайн-кинотеатр.
Эксперимент: как уникальность контента влияет на продвижение сайта
Гоша
4
комментария
0
читателей
Полный профиль
Гоша - Ну да! Тырить легче, чем самому писать... Или хотя бы заказать. Ещё и хвастаемся. Поисковики - не дураки - найдется фильтр и на тех, что воруют чужой контент. Еще немного... еще чуть-чуть. Получается, если ты украл в магазине - ты вор, а если в интернете - ты предприниматель. Успеха!
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
331
Комментариев
262
Комментариев
235
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
97
Комментариев
97
Комментариев
95
Комментариев
87
Комментариев
80
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55
Комментариев
54
Комментариев
53

Отправьте отзыв!
Отправьте отзыв!