Магия rel=canonical и переменная ved

Россия+7 (495) 960-65-87
Шрифт:
11 6745

В данной статье хотелось бы привлечь внимание специалистов к несовершенству тега rel="canonical" и интересной переменной &ved=0CCMQ0Qw.

При стандартной проверке сайта на наличие ошибок было выявлено, что у продвигаемой страницы появился дубль в выдаче поисковой системы Google. В Яндексе такой проблемы замечено не было.

1.png

Дубль был обнаружен при проверке текста на уникальность.

http://site.com.ua/usluga1&ved=0CCMQ0Qw

При анализе дубля было выявлено, что это та же продвигаемая страница, которая отличается лишь переменной в GET запросе ved=0CC0Q0Qw, которая добавлена к URL-адресу. Откуда взялась эта переменная, я не знаю, ранее с таким не встречался.

Попробуем обнаружить, какое количество страниц с переменной &ved было проиндексировано на всем сайте, при помощи поискового запроса:

site:site.com.ua inurl:ved=

В результате найдены 3 таких страницы в индексе поисковой системы:

http://site.com.ua/usluga1&ved=0CCMQ0Qw

http://site.com.ua/usluga2&ved=0CCMQ0Qw

http://site.com.ua/usluga3&ved=0CCMQ0Qw

Хорошо, что дублей не так много. Однако совпадение значения переменной ved у всех таких страниц заставляет задуматься.

Проверим, сколько страниц поисковая система проиндексировала с таким значением переменной для всех сайтов:

inurl:0CCMQ0Qw

Как мы видим из скриншота, множество крупных магазинов содержит аналогичные дубли в индексе поисковой системы Google.

2.jpg

Совет. Проверьте свои сайты, возможно, страницы с переменной &ved есть в индексе, ведь такие сайты, как rozetka.com.ua, eldorado.com.ua и hotline.ua, уже вплотную с ними столкнулись.

Примеры проиндексированных страниц с переменной &ved:

http://hard.rozetka.com.ua/logitech_wireless_mouse_m185_910_002240_red/p178126/&ved=0CCMQ0Qw/

http://www.eldorado.com.ua/led/mystery/c1038962/v352/%26ved=0CCMQ0Qw/

http://hotline.ua/foto-fotoapparaty/nikon-1-aw1-series/?tab=2&ved=0CCMQ0Qw%2F

Я попытался узнать у своих коллег, встречался ли кто-то ранее с данной переменной. Но, к сожалению, это не дало результатов.

Почему данные страницы попали в индекс?

Самое интересное то, что со страниц-дублей (которые содержат различные переменные) на клиентском сайте автоматически прописывается rel="canonical" на основную страницу. Т.е. со всех страниц, которые содержат какие-либо переменные, автоматически добавляется canonical на родительскую страницу.

Приведу пример:

Есть продвигаемая страница http://site.com.ua/usluga1

Мы не хотим, чтобы какие-нибудь страницы с идентификатором сессии в URL-адресе индексировались и попадали в базы поисковых систем, поэтому мы прописываем на http://site.com.ua/usluga1 и всех страницах с переменными в URL:

< link rel="canonical" href="http://site.com.ua/usluga1" />

Т.е. если у нас появится каким-то образом страница http://site.com.ua/usluga1&ved=0CCMQ0Qw, —

то на ней автоматически будет прописан тег: < link rel="canonical" href="http://site.com.ua/usluga1" />

Таким образом мы избавляемся от всевозможных дублей с переменными, делая их дочерними от продвигаемой страницы. Но в данном случае это по каким-то неведомым мне причинам не срабатывает.

Получается так, что страница содержит canonical, является дочерней и все равно индексируется поисковой системой Google.

Попытки решения проблемы

Для того чтобы исключить данные страницы из индекса поисковой системы, было предпринято множество действий, но они не увенчались успехом. Добавляли страницы на повторное индексирование через GWT, пинговали, даже ждали 2 недели, все тщетно.

В конце концов прописали со страниц с переменной &ved=0CCMQ0Qw 301 редирект на соответствующие страницы, и через некоторое время дубли были устранены из индекса поисковой системы Google.

Выводы

Данной статьей я ни в коем случае не хочу сказать, что тег link rel="canonical" плох для избавления сайтов от страниц-дубликатов. Хочу только донести мысль о том, что нужно всегда следить за индексом поисковых систем и анализировать их результаты. Там может быть много интересного.

Также следует максимально часто перепроверять продвигаемые сайты на наличие ошибок с точки зрения оптимизации и своевременно их устранять.

P.S. Буду очень признателен, если кто-то мне объяснит происхождение данной переменной.


Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Сидор Оптимимизатор
    13
    комментариев
    0
    читателей
    Сидор Оптимимизатор
    больше года назад
    "P.S. Буду очень признателен, если кто-то мне объяснит происхождение данной переменной."

    Ох, я всегда считал что коллеги-SEOшники должны уметь искать информацию, особенно в поисковиках. Ну да ладно. Переменная показывает с какой именно части SERP Google (новости, картинка, просто ссылка из органики), пришел пользователь.
    Ознакомьтесь: moz.com/blog/decoding-googles-referral-string-or-how-i-survived-secure-search
    -
    0
    +
    Ответить
  • Женя Кравчук
    1
    комментарий
    0
    читателей
    Женя Кравчук
    больше года назад
    Добрый день ! Анализируя свои сайты тоже нашел такие переменные
    &ved=0CMoBENEM
    &ved=0CBwQ0Qw
    &ved=0CJMBENEM
    -
    0
    +
    Ответить
  • Skarui
    95
    комментариев
    0
    читателей
    Skarui
    больше года назад
    Можно же в robots.txt запретить этот ved не?
    Disallow: */?ved=*
    Disallow: */ved=*
    -
    0
    +
    Ответить
    • quTG
      0
      комментариев
      0
      читателей
      quTG
      Skarui
      больше года назад
      Лучше 301, поведенческие на закрытой странице могут не учитываться
      -
      0
      +
      Ответить
    • Владислав Наумов
      35
      комментариев
      0
      читателей
      Владислав Наумов
      Skarui
      больше года назад
      1.Можно закрыть в Robots.txt.
      2.Можно прописать meta name="robots" content="noindex, nofollow".
      3.Можно удалить данные url через GWT.
      4.Можно сделать чтобы данная страница отдавала код отличный от 200.
      5.Можно запретить сканирование через GWT.
      6.Можно прописать 301 редирект.

      Но тема статьи немножко о другом, а именно о теге link rel="canonical" и переменной ved.
      -
      0
      +
      Ответить
  • SeoBudo
    2
    комментария
    0
    читателей
    SeoBudo
    больше года назад
    Да, поисковые системы хитрые и изворотливые штуки:)
    -
    0
    +
    Ответить
  • SeoBudo
    2
    комментария
    0
    читателей
    SeoBudo
    больше года назад
    &ved=0CCMQ0Qw - подобные переменные могут быть сформированы cms сайта, проверьте, возможно у всех сайтов с наличием этой переменной в урл - одна и та же админка.

    link rel="canonical" - если память не изменяте тег не гарантирует того, что страница с ним не будет проиндексирована, он указывает лишь дает сигнал поисквому роботу о на главную страницу, на которой расположен основной контент

    "support.google.com/webmasters/answer/139066?rd=1   - В э...
    &ved=0CCMQ0Qw - подобные переменные могут быть сформированы cms сайта, проверьте, возможно у всех сайтов с наличием этой переменной в урл - одна и та же админка.

    link rel="canonical" - если память не изменяте тег не гарантирует того, что страница с ним не будет проиндексирована, он указывает лишь дает сигнал поисквому роботу о на главную страницу, на которой расположен основной контент

    "support.google.com/webmasters/answer/139066?rd=1   - В этой статье описано, как использовать канонические URL, чтобы улучшить рейтинг одинакового содержания, размещенного на разных страницах."
    -
    0
    +
    Ответить
    • Владислав Наумов
      35
      комментариев
      0
      читателей
      Владислав Наумов
      SeoBudo
      больше года назад
      На моем подопечном сайте какой-то самопис, не думаю что у розетки и work.ua такой же :)

      Поисковая система ничего не гарантирует, чтобы к ней потом не предъявляли претензий вида :

      - Моя страница не проиндексирована, а в справке написано что в Sitemap.xml укажите страницу и все будет проиндексировано.
      - Canonical не склеил дубликаты.
      - Запрещено сканирование страницы в Robots.txt, а страница всё-равно в индексе.
      - На странице размещен мета тег met...
      На моем подопечном сайте какой-то самопис, не думаю что у розетки и work.ua такой же :)

      Поисковая система ничего не гарантирует, чтобы к ней потом не предъявляли претензий вида :

      - Моя страница не проиндексирована, а в справке написано что в Sitemap.xml укажите страницу и все будет проиндексировано.
      - Canonical не склеил дубликаты.
      - Запрещено сканирование страницы в Robots.txt, а страница всё-равно в индексе.
      - На странице размещен мета тег meta name="robots" content="noindex,nofolow" но страница всё-равно индексируется.
      - И так далее.

      В справке рекомендуется устранять полные дубликаты при помощи тега link rel="canonical", а страницы, которые отличаются только по url как раз полными дубликатами и являются.

      Поэтому следует логичный вывод - Доверяй, но проверяй)
      -
      0
      +
      Ответить
  • Герман Мотуз
    3
    комментария
    0
    читателей
    Герман Мотуз
    больше года назад
    Обнаружил у себя такую штуку: ved=0CJABENEM
    -
    0
    +
    Ответить
    • Владислав Наумов
      35
      комментариев
      0
      читателей
      Добрый день, Герман.

      Тогда получается значение переменной ved может быть разным, очень интересно, спасибо за информацию.

      И Вы не одиноки, у многих других сайтов есть такие же дубли.


      Значит при поиске дублей данного типа необходимо использовать запрос inurl:ved= , а не значение самой переменной.
      -
      0
      +
      Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
SEOnews и Serpstat запускают конкурс для интернет-маркетологов
Marina Lagutina
1
комментарий
0
читателей
Полный профиль
Marina Lagutina - Добрый день! Видимо я из тех, кто пытается последней вскочить в уходящий поезд. Ночью написала статью на тему "обзор инструментов контент-маркетинга". Своего блога нет. Отправила вам не мейл. Я еще могу у вас разместиться или искать, кто возьмет статью к себе в блог?
«Я оптимизировал сайт, а он не в ТОП! Что делать?»
Павел Горбунов
8
комментариев
0
читателей
Полный профиль
Павел Горбунов - Как можно в инструменте tools.pixelplus.ru/tools/text-natural сравнить текст со страницы конкурента и со своей страницы? Я вижу возможность только для проверки одного урла.
Монетизация сайта. Как, когда, сколько?
Гость2
1
комментарий
0
читателей
Полный профиль
Гость2 - Руслан! Спасибо за ваш сервис и за данную статью в частности! С апреля являюсь вашим пользователем - очень доволен как сервисом, так и уровнем заработка! Еще раз спасибо, удачи вашему проекту!
Мир глазами поисковых систем
Александр Рунов
7
комментариев
0
читателей
Полный профиль
Александр Рунов - Какой регион, если не секрет? В Мск, в ряде ВК тематик (в тех же "окнах" или "колесах"), без работы с внешними факторами по ВЧ запросам в ТОП не выплывешь. Хотя в большинстве направлений вполне реально.
Влияние HTTPS на ранжирование региональных поддоменов в Яндексе
Екатерина Иванова
1
комментарий
0
читателей
Полный профиль
Екатерина Иванова - Посмотрите на сколько упал трафик и на сколько потом вырос:упал на 10-20% на 1 месяц, а вырос в итоге в 5 раз. Одним мартовским трафиком всё падение перекрыли. Или можно ждать Яндекс неопределённое количество времени со стартовым уровнем трафика. Упущенные возможности и всё-такое.
Google.ru внесли в реестр запрещенных сайтов
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Гон, все работает и будет работать. Да и пусть банят, будет как с рутрекером.
День рождения SEOnews: 12 лет в эфире!
Анна Макарова
308
комментариев
0
читателей
Полный профиль
Анна Макарова - Ура )
7 причин не работать на биржах копирайтинга
Dasha Shkaruba
6
комментариев
0
читателей
Полный профиль
Dasha Shkaruba - Спасибо за мнение! Кстати, на бирже главреда прием анкет закрыт
Инфографика: самые распространенные SEO-ошибки Рунета
Alex Wise
3
комментария
0
читателей
Полный профиль
Alex Wise - Спасибо, Женя, за рекомендацию! :) Андрей, чтобы понять, какой программой пользоваться, нужно сделать несколько вещей: 1. Попробовать обе: у нас в Netpeak Spider бесплатный триал на 14 дней с полным функционало; у SFSS до 500 URL всегда бесплатно, но с ограниченным функционалом. 2. Понять свой стиль работы – если вы любите полный контроль и из-за этого более высокую скорость пробивки, тогда выбирайте Netpeak Spider. Если для вас не так важна скорость и количество пробитых URL, то можно остановиться на SFSS. 3. Определиться с нужными функциями: их в обоих программах очень много и как в Netpeak Spider есть уникальные, так и в SFSS есть свои уникальные. Мы всегда ориентируемся на то, чтобы быстро и чётко показать ошибки – для этого у нас вся таблица красится в соответствующие цвета. Думайте!) И, если что, обращайтесь с вопросами – мы будем рады помочь!)
Конкурс: угадайте пятерку лидеров рейтинга «SEO глазами клиентов 2017»
Оля
1
комментарий
0
читателей
Полный профиль
Оля - 1 Ingate 2 Wezom 3 Bynjg vtlbf 4 seo energy 5 директ лайн
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
308
Комментариев
262
Комментариев
224
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
97
Комментариев
97
Комментариев
95
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
55
Комментариев
53
Комментариев
52
Комментариев
46

Отправьте отзыв!
Отправьте отзыв!