×
Россия +7 (495) 139-20-33

Дублированный контент и как с ним бороться

Россия +7 (495) 139-20-33
Шрифт:
4 51058

Все мы давно знаем, что дублированный контент — это зло, с которым надо беспощадно бороться. Специалисты, которые работают в отрасли поисковой оптимизации не первый год, прекрасно знают, как избежать проблем, связанных с появлением дублированного контента на сайте. Новички же могут забывать о некоторых нюансах, которые ведут к созданию дублей страниц. В особой зоне риска находятся интернет-магазины. Из-за огромного количества страниц, структуры сайта онлайн-торговцев подстерегает вероятность появления дублированного контента. Представляем вашему вниманию 9 возможных причин появления дублей на сайтах интернет-магазинов и советы по их устранению.


  1. Многоаспектная навигация

Создание дублированного контента из-за многоаспектной навигации — очень распространенная проблема для сайтов электронной коммерции. Доходит до того, что одна страница одного и того же товара может иметь свыше 100 вариаций URL из-за многочисленных комбинаций с применением параметров выбора продукта.

Страница без применения фильтрации по категориям.

Та же самая страница с применением фильтров.

Приведенный пример показывает, как запрос добавляется в URL при отображении уточненных результатов. Однако контент на странице остается тем же самым.

Решение проблемы:

Существует несколько способов предотвратить индексацию страниц, появившихся в результате многоаспектной навигации.

  • мета-тег robots

< meta name="robots" content="noindex,follow«>

Атрибут noindex сообщает поисковым системам, что страницу не следует индексировать, follow — продолжать учитывать ссылки.

  • настройка параметров в «Инструментах для Вебмастеров» Google

«Инструменты для Вебмастеров» можно использовать для решения проблем создания динамических страниц. Например, запретить индексировать поисковику URL таких страниц.

  • тег Canonical

Прописав тег rel="canonical«, вы можете сообщить поисковым системам, что определенные URL являются разновидностью или дублированной версией другого URL. Есть случаи, когда поисковые системы игнорируют канонические теги и продолжают индексировать страницы. Поэтому некоторые специалисты советуют использовать этот способ совместно с мета-тегом robots.


  1. Страница заказа товара

Выбирать товары для заказа в каталоге — удобно для пользователей. Но для владельцев интернет-магазинов это еще одна головная боль, так как в результате этого могут появляться страницы с дублированным контентом.

Решение проблемы:

Используйте методы, описанные выше.


  1. Иерархические URL

Несколько лет назад иерархические URL считались лучшим решением для сайтов e-commerce. Но времена меняются, меняется SEO. Сейчас иерархические URL часто могут стать причиной появления страниц с дублированным контентом, показывающих один и тот же товар из одной категории.

Решение проблемы:

Если есть возможность, рекомендуется переписать адреса страниц, убрав фрагменты-узлы, оставив наименование товара. Также можно использовать тег canonical, чтобы передать вес нужной странице и дать понять поисковикам, какая страница — основная.


  1. Страницы поиска

Страницы поиска по каталогу — другой яркий пример появления дублированного контента, от которых страдают многие онлайн-магазины.

Решение проблемы:

Самый простой способ заблокировать поисковикам доступ к страницам поиска по каталогу — воспользоваться robots.txt.

Чтобы заблокировать страницу вроде этой: /shop/catalogsearch/result/?q=testquery, пропишите строку в robots.txt: Disallow: /shop/catalogsearch/.

Если страницы поиска уже проиндексированы, удалите их из индекса с помощью «Инструментов для Вебмастеров».


  1. Интернационализация

Все чаще интернет-магазины запускают международные версии сайтов до того, как переведут весь контент. В результате появляется дублированный контент с описанием товаров с небольшими различиями в URL. Это не очень распространенная проблема, но некоторые сайты с ней сталкиваются.

Решение проблемы:

Перевести контент или, если не успеваете это сделать, заблокировать доступ к страницам без контента.


  1. Пагинация

Пагинация — другая проблема, из-за которой появляется дублированный контент.

Решение проблемы:

Использовать теги rel=next и prev, введенные Google в 2011 г.


  1. ID-сессии

Сессии ID — одна из наиболее раздражающих вещей, с которыми приходится сталкиваться специалистам SEO, так как в результате может появиться неограниченное количество дублированных страниц.

Решение проблемы:

Лучшее решение — остановить сессию ID при создании. Также можно воспользоваться «Инструментами для Вебмастеров» от Google, чтобы сообщить поисковым системам об игнорировании сессий ID.


  1. Страницы для печати

На старых сайтах интернет-магазинов есть возможность отображения печатной версии страницы товара, которая показывает тот же самый контент с другим URL.

Решение проблемы:

Применение мета тега robots (noindex, follow) к динамическим страницам или закрытие каталога в robots.txt.


  1. Страницы отзывов

Отзывы пользователей могут отображаться несколькими способами в зависимости от построения сайта и CMS. На некоторых сайтах есть отзывы на страницах товаров и страницы только с отзывами.

Как видно из примера, страница отзывов содержит тот же самый контент, но с другим URL.

Решение проблемы:

Чтобы избежать индексации этих страниц, воспользуйтесь файлом robots.txt или используйте мета тег robots (если страницы динамические).

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • alex soleny
    2
    комментария
    0
    читателей
    alex soleny
    больше года назад
    я на joomla тоже все через робот закрыл
    -
    0
    +
    Ответить
  • LUCEfeel
    больше года назад
    Интересная статья, но есть свои ньюансы. К примеру в ручную при огромном кол-ве контента это сделать проблематично
    -
    0
    +
    Ответить
  • Вячеслав
    больше года назад
    Для оптимизации CMS есть множество плагинов, которые позволяют бороться с дублями страниц. Что не может исправить плагин, добиваем в robots.txt  Я использую JOOMLA уже много лет, правильно настроенная CMS дубли не плодит.
    -
    0
    +
    Ответить
  • Тимур и его команда
    больше года назад
    Все эти действия являются постфактум. Нужен анализ и тест систем прежде того чем отключит для индексации.
    Гугъл понимает ети дубли (пункт 1) и не показывает в SERP. Все таки дубли надо убрать ...:))), запретит для индексации.
    Для практические решения, можно ознакомится с опитом нескольких топ ритейлеров. Структура, robots.txt, sitemap...можно все посмотреть и сделать выводы.
    Статья полезная,. редактор-переводчик Демина.
    -
    1
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Известность бренда SEO-компаний 2021
Костя
1
комментарий
0
читателей
Полный профиль
Костя - Iqad самые классные!!!
Медицинская тематика в SEO: исследование спроса
Гость
1
комментарий
0
читателей
Полный профиль
Гость - В файле по ссылке запрос "как понизить голос" относят к 100-тысячным. Каким боком? Вордстат показывает в разы меньшую цифру.
Товары, которые не стоит продавать на Wildberries: типичные ошибки новичков
Николай
1
комментарий
0
читателей
Полный профиль
Николай - Похоже wildberries-edu.ru/
SEO-продвижение монобрендового интернет-магазина. Кейс Casio
Mike
11
комментариев
0
читателей
Полный профиль
Mike - Яндекс сам не знает, что рекомендует. Каноникал они игнорируют все равно. А вот в гугле четко сказано, что если у страниц разный контент, то каноникал ставить не правильно.
Медицинская тематика в SEO: исследование выдачи
УточняюВопросы
1
комментарий
0
читателей
Полный профиль
УточняюВопросы - не очень понятен ваш запрос, можете чуть детальнее расписать? у нас же РУ-семантика, соответственно и язык сайтов в выдаче РУ конечно могуть быть какие то случайные выбросы, но вряд ли значимые
Реклама в Google Ads и AdSense в России работает нестабильно
Гость
2
комментария
0
читателей
Полный профиль
Гость - У тебя трафик с поиска уменьшился?
7 трендов интернет-маркетинга на 2022 год
Иван
1
комментарий
0
читателей
Полный профиль
Иван - За трендами реально будущее!
«Ашманов и партнёры» создали нейросеть, которая генерирует нешаблонные описания для страниц сайтов
Алексей
1
комментарий
0
читателей
Полный профиль
Алексей - Функционал есть, но он не отдельный. Он идёт в дополнение к LSI-анализу, интегрирован в него. Можете увидеть сгенерированные мета-теги на вкладке "Текст" в результатах LSI-анализа. Они будут указаны с пометкой (авто). Также сгенерированные мета-теги указаны в ТЗ для копирайтера, которое формируется по итогам анализа конкурентов.
10 сервисов для работы с текстом в 2022 году
RasDva
10
комментариев
0
читателей
Полный профиль
RasDva - Серпстат заблокировал пользователей из РФ без возврата денег за тарифы. Поэтому не рекомендую.
Внедрение и тестирование поиска по товарам в интернет-магазине инструментов
Геннадий IQAD.RU
1
комментарий
0
читателей
Полный профиль
Геннадий IQAD.RU - На текущий момент достаточно часто (через 2-3 фида находятся проблемы). Причина в том, что инструмент пока находится в бета-версии и фиды проходят ручную модерацию через асессоров Яндекса. Тем не менее, как правило, правки минимальны.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
115
Комментариев
97
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
62
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!