Индексация любой ценой: проверяем все до мелочей

Россия+7 (495) 960-65-87
Шрифт:
6 3991

над статьей.png

Владельцы сайтов интернет-магазинов регулярно сталкиваются с тем, что при индексации страницы пагинации воспринимаются поисковыми системами как дубли. Чтобы избежать этого, программисты и SEO-специалисты должны внимательно следить за настройками страниц — причем не только в файле robots.txt, но и в программном коде.

Запуск сайта и проблемы с выдачей

Вводная: наша компания получила задачу на оптимизацию и продвижение небольшого сайта-витрины — заказ товаров осуществляется не при помощи корзины, а через форму обратной связи с клиентами. Работа планировалась по региону, поэтому серьезных проблем с конкуренцией не ожидалось.

Пока сайт находился в разработке, он был закрыт для индексации строчкой Disallow: / в файле robots.txt. Когда программисты и дизайнеры «отшлифовали» сайт, его наполнили и оптимизировали. После этого строчку Disallow: / убрали.

Все понимали, что ресурс молодой, и мгновенной волны трафика не ожидали. Однако и через месяц посещаемость была очень низкой, а в выдаче ресурс не вошел даже в сотню по Google и Яндексу по большинству запросов. Видимость была у главной и общих страниц — «О нас», «Контакты» и другие. Конверсию приносила только «Главная».

На этом этапе стало понятно, что где-то допущена ошибка.

Что пошло не так

При разработке сайта программистам поставили задачу — добавить на страницы пагинации строку < meta name="robots" content="noindex, follow"/ >. При помощи этой строчки получается избежать проблем с дублями страниц категорий и избавить сайт от необходимости конкурировать с самим собой. Она дает поисковикам указание не индексировать информацию на страницах, но выполнять переходы по ссылкам, которые на ней есть.

Чтобы избежать дублей, используют и другие методы. В разных ситуациях оптимизаторы отдают предпочтение тегу canonical или даже создают для каждой страницы пагинации уникальные метатеги и тексты описаний.

внутрь статьи.png

При разборе ситуации выяснилось, что строку вписали в код на страницах не только пагинации, но и самих категорий, поэтому для индексации они тоже оказались невидимыми — ни позиций, ни трафика.

Программисты все исправили, и уже спустя пару недель появились первые результаты по видимости и притоку трафика.

На графике рамкой выделен промежуток до исправления ошибок:

Индексация любой ценой проверяем все до мелочей.png

Разница позиций — до и после исправления:

Индексация любой ценой проверяем все до мелочей

Вывод: проверяйте индексацию не только в robots.txt, но и непосредственно в коде страниц. Результаты продвижения могут быть плохими не из-за неправильной оптимизации, а банально потому, что некоторые страницы робот даже не увидел.

Также вам может быть интересно Редирект: избавляемся от зеркал и возвращаем позиции

0
0

Есть о чем рассказать? Тогда присылайте свои материалы в редакцию.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • maksim22
    3
    комментария
    0
    читателей
    maksim22
    больше года назад
    как в данном случае cserp.com.ua/
    -
    0
    +
    Ответить
  • maksim22
    3
    комментария
    0
    читателей
    maksim22
    больше года назад
    не всегда работает код CS ERP
    -
    0
    +
    Ответить
  • Гость
    1
    комментарий
    0
    читателей
    Гость
    больше года назад
    Ни какой конкретики. Какую строчку добавили в код? Как способ был у вас скрыть страницы пагинации.
    -
    5
    +
    Ответить
    • Илья Гринько
      5
      комментариев
      1
      читатель
      Илья Гринько
      Гость
      больше года назад
      Судя по тому что категории были невидимыми (как говорит автор статьи), скорее всего написали noindex, follow или noindex, nofollow
      -
      0
      +
      Ответить
  • Яна
    7
    комментариев
    0
    читателей
    Яна
    больше года назад
    Иногда можно провести все возможные работы по сайту, но от ошибки никто не застрахован. Было интересно читать, спасибо, что поделились профессиональным опытом.
    -
    1
    +
    Ответить
  • Анна
    5
    комментариев
    0
    читателей
    Анна
    больше года назад
    Да, ужасно обидно, когда из-за подобных оплошностей так страдает результат. Проверять и перепроверять при малейших подозрениях - вот главный метод работы. Спасибо за статью, она еще раз напомнила об этом правиле :)
    -
    1
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Сколько ссылок помогут продвинуть молодой сайт
Павел Андрейчук
41
комментарий
0
читателей
Полный профиль
Павел Андрейчук - Дело в том, что вряд ли в ваших платных "качественных" кейсах найдётся хоть пару % действительно новой и полезной информации которой бы не было на общедоступных источниках.
Google Data Studio: делаем красивые отчеты по контекстной рекламе для клиентов
Никита Кудрин
1
комментарий
0
читателей
Полный профиль
Никита Кудрин - Все понимаю, кроме того как сделать что бы наименования показателей и параметров не менялись на англоязычные при выборе источника.
Сайт на WordPress: за и против
Мира Смурков
1
комментарий
0
читателей
Полный профиль
Мира Смурков - Людмила, я согласен с большинством комментаторов. Вы хоть один полноценный магазин сделали на этих движках? Woocommerce это система с супер возможностями. И к ней есть дополнительные модули, с функционалом, который вряд ли появиться на Битрикс. А самому это программировать - сотни тысяч рублей на разработку. А приведя в пример сложности с robots.txt и Sitemap вы ставите под вопрос вашу компетенцию в понимании Интернет-бизнеса и веб-разработки в целом. Во-первых это такие мелочи, а во-вторых это все делается на вордпресса за 2 минуты, и опять же с возможностями многократно превышающими Битрикс.
Обзор популярных CMS: плюсы и минусы
Андрей Литвиненко
2
комментария
0
читателей
Полный профиль
Андрей Литвиненко - + там где нужно прописать каноникал, там где нужно поставить мета тег ноиндекс (т.к. Гугл не всегда следует правилам robots.txt) ну и то что выше, к техническим сео возможнлстям можно еще отнести легкое и хотя бы полуавтоматическое добавление микроразметки по сайту, увы "из коробки" такого функционала нет ни в одной cms, все на допиливаниях
Google обошел Яндекс по популярности в России в 2018 году: исследование SEO Auditor
Рамблер
1
комментарий
0
читателей
Полный профиль
Рамблер - Вот вроде отечественный - это сказано верно.. «Я́ндекс» — российская транснациональная компания, зарегистрированная в Нидерландах. Так говорится в Википедии. И с хрена ли ОТЕЧЕСТВЕННЫЙ поисковик зарегистрирован в Европе? И где платится основная часть налогов? Ну-ууу, точно не в России. И если запахнет жаренным, то был Яндекс и нет Яндекса!
8 методик в SEO, от которых давно пора отказаться
Евгений Сметанин
12
комментариев
0
читателей
Полный профиль
Евгений Сметанин - Факторов вообще очень много, согласитесь, вы будете использовать максимальное их количество, особенно, если в ТОПе засели агрегаторы с сумасшедшими ПФ. В таких случаях, вхождение ключа в домен для маленького профильного сайта, сыграет свою положительную роль. Конечно же, если контент на страницах хорошего качества. У меня есть несколько успешных кейсов на эту тему. На сайте продают несколько видов товаров, а выстреливает в ТОП тот, название которого присутствует в доменном имени. Как корабль назовешь, так он и поплывет, верно?))
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Ann Yaroshenko
4
комментария
0
читателей
Полный профиль
Ann Yaroshenko - добрый день! Спасибо за ваш вопрос. Ответ зависит от тематики сайта - допустим у вас на страницах пагинации меняется только размер/цвет или другие параметры товаров - тогда лучше закрывать пагинацию в роботс. если же, например, на первой странице пользователь задал вопрос, а нужный для себя ответ находит на 2-10-20-той странце (как на форумах, например) - лучше разрешить боту сканировать контент - ведь пользователь тоже может перейти к вам на сайт потому, что видит интересный для себя ответ на 2-10-20-той странице.
Как выбрать подрядчика для продвижения сайта: 7 уровней воронки поиска
aashutosh
1
комментарий
0
читателей
Полный профиль
aashutosh - data science training institute in noida- Webtrackker Technology (8802820025) providing Data Science Training in Noida. Get ✓ 40 Hours Learning training✓ 70 Hrs Projects ✓ 24 X 7 Support ✓ Job Assistance. WEBTRACKKER TECHNOLOGY (P) LTD. C - 67, sector- 63, Noida, India. E-47 Sector 3, Noida, India. +91 - 8802820025 0120-433-0760 +91 - 8810252423 012 - 04204716 EMAIL:info@webtrackker.com webtrackker.com/Best-Data-Science-Training-Institute-in-Noida.php
Как построить качественный ссылочный профиль на основе конкурентов
Ирина
5
комментариев
0
читателей
Полный профиль
Ирина - Давно сотрудничаю с megaindex.com и считаю данный сервис одним из лучших в сео сегменте рунета да и не только рунета. Пользуюсь их инструментами для аналитики своих работ и выявлению своих и чужих ошибок. Да и ссылочный профиль, как и говорится в данной статье сделать гораздо проще и правильней при помощи как раз мегаиндекса. Добавлю еще что инструмент для поиска конкурентов у мегаиндекса очень удобный и простой в применении.
Чек-лист для аудита рекламных кампаний в Яндекс.Директе и Google Ads
Елена Бикташева
1
комментарий
0
читателей
Полный профиль
Елена Бикташева - Спасибо! Была бы еще возможность скачивания.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
346
Комментариев
262
Комментариев
248
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
105
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
63
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!