×

Самые распространенные ошибки в продвижении сайта и как их найти и исправить. Часть 1

Россия +7 (495) 139-20-33
Шрифт:
0 7873
Подпишитесь на нас в Telegram

О SEO можно сказать так: это мощный инструмент маркетинга, но только если не совершать ошибок. Действительно, поисковая оптимизация – сложный многоуровневый процесс, призванный не только привлекать трафик на сайт, но и в целом работать над улучшением продукта и выстраиванием взаимоотношений с клиентами. Не допустить промах и выбрать правильную стратегию оптимизации бывает довольно сложно, особенно если впервые занялся самостоятельным продвижением своего проекта.

Специалисты Rookee провели анализ основных ошибок при продвижении сайтов и показали на практических примерах, как их исправить.

1. Игнорируете robots.txt

Robots.txt – это текстовый файл, который расположен в корневой системе сайта. Это свод правил, который содержит параметры индексирования сайта для роботов поисковых систем. Проще говоря, диктует поисковикам, какие страницы сайта им индексировать, а какие нет.

Что предпочтительно закрывать от поисковых систем:

  • точки входа платных каналов (utm-метки и т. п.);
  • результаты работы функционалов (поиск, фильтр, отображения товаров, печати и т. п.); 
  • файлы pdf, doc, xls (если контент из них дублируется на основных); 
  • служебные страницы (корзина, личный кабинет, регистрация, авторизация).

Как проверить

В сервисе Яндекс Вебмастер можно проверить, закрыта ли страница от индексации, не регистрируясь в нем.

Яндекс Вебмастер

Как исправить

К примеру, функционал поиска может генерировать огромное количество дублей на сайте.

Предположим, что адреса ссылок в функционале поиска могут выглядеть вот так:

  • Site.ru/search/?search.text=мужские-джинсы 
  • Site.ru/search/?search.text=женские-джинсы 
  • Site.ru/search/?search.text=горячие-беляши

У всех вышеприведенных ссылок есть общий лем (слово): /search

Чтобы закрыть страницу, необходимо использовать директиву:

Disallow: /search

Disallow – запрещает индексирование разделов или отдельных страниц сайта.

Disallow: /search – страница поиска. Эта строка говорит поисковым роботам, что искать в результатах поиска не нужно.

Далее мы проверяем и формируем в Яндекс Вебмастере новый корректный файл Robots.txt, копируем его и размещаем в текстовом файле в корневой директории сайта.

Подобным образом можно проверить и закрыть от индексации все возможные варианты дублирования страниц, которые мы привели выше.

2. Не исправляете дубли

Разберем, как искать дубли на сайте, если они не очевидны и не входят в вышеперечисленный список из первого пункта. К примеру, из-за особенностей CMS сайт может самостоятельно генерировать дубли страниц.

Чтобы их найти, нужно в Яндекс Вебмастере в разделе «Индексирование» выбрать пункт «Страницы в поиске», кликнуть на вкладку «Исключенные страницы» и в фильтре «Статус» выбрать «Дубль» и нажать «Применить». Далее проверяем, какие страницы уже были исключены из поиска, так как Яндекс посчитал их дублями.

Проверка сайта

Как исправить

Все страницы с дублирующимися метатегами необходимо проверить. Если страницы действительно являются дублями, то их нужно исправлять – закрывать в robots, настраивать 301 редирект или прописывать атрибут rel= «canonical». Если же страницы не являются дублями и у них просто повторяются метатеги, то это тоже считается ошибкой, и метатеги необходимо уникализировать.

3. Не актуализируете sitemap.xml

Согласно справке Яндекса, Sitemap – это файл со ссылками на страницы сайта, который сообщает поисковым системам об актуальной структуре сайта. Он помогает поисковым системам быстро и качественно индексировать интернет-ресурс. Его необходимо регулярно обновлять. Например, после того как были внесены изменения в файл robots.txt, нужно внести изменения и в карте сайта.

Как проверить

Провести анализ карты сайта с помощью сервиса Яндекс Вебмастер.

Яндекс Вебмастер

Как исправить

Существуют специальные плагины, которые автоматически формируют карту сайта.

Примеры плагинов для формирования SITEMAP.XML:

4. Используете слишком много JavaScript

JavaScript – это популярный язык программирования, который владельцы сайта используют для создания анимации, поп-ап баннеров и других элементов пользовательского интерфейса. Поисковики уже давно говорят, что могут распознавать язык JavaScript, а значит, его использование не влияет на продвижение. Однако опыт утверждает другое: у сайта могут возникнуть сложности в продвижении, если он некорректно отображается в индексе.

Как проверить

Проверить это несложно. Для этого нужно открыть сохраненную копию сайта в результатах поиска Яндекса. На открывшейся странице выбираем вкладку «Только текст» и смотрим текстовую копию.

Проверка сайта

Проверка сайта

Именно так видит страницу робот поисковых систем. Необходимо проверить, все ли элементы сайта отображаются корректно, если нет – исправить ошибки, обратившись к программисту.

5. Не определяете приоритетные страницы

Как правило, оптимизация сайта, выкладка доработок на сайт и индексация всех изменений занимает примерно 2 месяца. Получается, что разделы, которые продвигаются по определенным запросам, будут пользоваться наибольшим спросом примерно через 2 месяца после начала SEO-кампании. Вот их и следует продвигать в первую очередь.

Для этого нужно четко понимать, какие разделы будут пользоваться наибольшим спросом через 2 месяца, через 3, 4 и так далее. При этом некоторые из запросов имеют очевидный пик спроса (например, «купить елочные игрушки»), а некоторые – совершенно неочевидны («купить холодильник» с пиком спроса в марте и июле).

Проверка сайта

Проверить пик спроса можно в Яндекс Вордстат.

6. Забрасываете SEO-продвижение

SEO – процесс постоянный. Поэтому позиция владельца сайта «запросы уже в топе – больше платить за продвижение не надо» не оправдывает себя. Поисковые системы развиваются, появляются новые факторы и алгоритмы ранжирования. Страница сайта из топ-3 через месяц-два может не выдержать конкуренцию с другими ресурсами, которые постоянно развиваются и меняются в соответствии с новыми требованиями пользователей и поисковиков, закупают новые ссылки.

К чему приводит такой подход:

  • видимость сайта снижается;
  • количество продаж становится меньше.

7. Используете только частотные и конкурентные запросы

SEO-специалисты делят все запросы по частотности – параметру, который показывает, насколько часто запрос вводится в поисковую строку:

  • низкочастотные (НЧ);
  • среднечастотные (СЧ);
  • высокочастотные (ВЧ).

Популярные (высокочастотные) запросы очень важны, и полностью отказываться от них не рекомендуется. Но не ими едиными живет успешное SEO.

Минусы высокочастотных запросов:

  • Большое количество рекламных объявлений.
  • Чем популярнее запрос, тем больше компаний хотят по нему рекламироваться. 
  • Крупные высокобюджетные бренды в выдаче, с которыми трудно конкурировать.

К чему приводит:

  • долгий срок вывода запроса в топ поисковика; 
  • низкий CTR; небольшой охват; 
  • высокая стоимость продвижения.

Из минусов логично вытекает следующая ошибка:

8. Не используете низкочастотные и микрочастотные запросы

Низкочастотные запросы пользователи вводят в поиск редко, но они тоже важны. Обычно низкочастотные запросы более конкретные и приводят более подготовленную к покупке аудиторию. В семантическом ядре должны присутствовать все варианты по частотности.

Что характерно для низкочастотных и микрочастотных:

  • Проще вывести в топ. 
  • Высокий очищенный спрос (более суженный спрос, количество показов запроса без словосочетаний). 
  • Высокий CTR. У низкочастотного запроса практически всегда выше CTR, потому что вводивший его пользователь точно знал, что ему нужно. 
  • Высокая конверсия. Человек, который вводит низкочастотный запрос «купить женский красный итальянский пуховик», скорее всего, уже настроен купить конкретный товар.

9. Не используете статистику для кластеризации запросов

Кластеризацией SEO-специалисты называют группировку запросов по интенту (по намерению пользователя, который вбивает запрос в поисковик).

Группируя запросы по потребностям пользователя, не нужно обращаться только к человеческой логике, правильнее и надежнее доверять сервисам аналитики Яндекса и Google. Пользователи непредсказуемы, а у поисковиков свой взгляд на кластеризацию. Группировать запросы можно с помощью бесплатного кластеризатора Coolakov.

10. Не учитываете запросы, которые уже приносят трафик

Собирая запросы и начиная оптимизировать под них страницы, можно потерять уже наработанный трафик по другим ключевым словам. И сайт начнет терять посетителей.

Чтобы этого не случилось, можно посмотреть в Яндекс Метрике, по каким фразам страницы сайта уже видны в поиске, выгрузить список текущих трафиконосных запросов, добавить его к подобранным и удалить дубликаты.

Это только некоторые из самых распространенных ошибок по SEO. Еще больше ошибок мы разбираем во второй части статьи.

Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы в редакцию.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Примеры использования ChatGPT в SEO-стратегии
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Если кто то хочет протестировать Cat GPT в SЕО проектах на базе нашего агенства, приглашаем наудалкнную работу Tg: @thegoodlink
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Анна
1
комментарий
0
читателей
Полный профиль
Анна - Ха, занятно. А я еще видела полезное описание тут digitalproweb.ru/sozdanie-sajtov-vybrat-konstruktory-ili-cms
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Как в перегретой нише получать заявки и добиться конверсии в 19%
ZRZ8GCHIZ6 www.yandex.ru
1
комментарий
0
читателей
Полный профиль
ZRZ8GCHIZ6 www.yandex.ru - ZRZ8GCHIZ6 www.yandex.ru
Особенности внутренней перелинковки для крупных сайтов
Злобная булочка
1
комментарий
0
читателей
Полный профиль
Злобная булочка - Ну это ж ингейт)
Что такое Яндекс Советник, и кому от него жить хорошо
Мама Стифлера
1
комментарий
0
читателей
Полный профиль
Мама Стифлера - Вызывает сожаление, что вы не осознаете, что Яндекс.Советник может быть рассмотрен как форма рэкета, которая заставляет компании, размещающиеся в Яндекс.Маркете, выплачивать дополнительные финансовые средства, повышая в конечном итоге прибыль Яндекс.Маркета, но не принесет пользы для посетителей сайта.
Эффективное продвижение сайтов: 10 лет опыта в SEO в Рунете и Буржуйнете
Денис
1
комментарий
0
читателей
Полный профиль
Денис - Павел, на сайте заглушка, ведутся обновления) пару дней он будет функционировать. Касательно статьи и полезности она дополнится ценностями по буржу, в основном я буду делиться актуальной информацией по seo, chatgpt в с своем тг канале)
Как дожать сайт до ТОПа? Выжимаем весь сок из SEO под Яндекс и Google
Фанит
2
комментария
0
читателей
Полный профиль
Фанит - Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Самые быстрорастущие доменные зоны в 2023 году. Исследование RU-CENTER
Станислав
1
комментарий
0
читателей
Полный профиль
Станислав - С 2019 года количество доменов в зоне .ru остается на одном и том же уровне - около 5 млн. Все изменения на уровне 1% от этого объема в плюс или минус
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
386
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
118
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!