×

Карта сайта: как с пользой использовать файл sitemap XML

Россия +7 (495) 139-20-33
Шрифт:
0 6576
Подпишитесь на нас в Telegram

Файл Sitemap XML, или карта сайта, – это мощный инструмент в сфере SEO-продвижения. Если говорить просто, то это служебный файл, который показывает систематизированный перечень страниц XML, рекомендованных для приоритетной поисковой индексации. 

Сразу нужно упомянуть, что Sitemap XML не стимулирует увеличение скорости и периодичности индексации страниц – это самое распространенное заблуждение в этой теме. Нужно смириться с тем, что поисковые машины Google и Яндекс индексируют все, до чего могут «дотянуться», а не исключительно те страницы, которые им разрешили проанализировать. 

Поисковые системы индексируют в следующих случаях: 

  • алгоритм смог найти и просканировать страницу;
  • роботы определили страницу как качественную. 

Следовательно, если вы специально укажете определенную страницу в Sitemap XML, то это совсем не значит, что у нее появится приоритет в ранжировании. Для эффективного использования этого файла его рекомендуют рассматривать в качестве подсказки, содержимое которой дает понять алгоритмам поисковой системы, какие страницы вы считаете наиболее качественными. Но это только подсказка, а не руководство к действию. 

Ошибки последовательности при расстановке приоритетов 

Многие допускают серьезную ошибку, когда организовывают передачу поисковым системам информации о странице. Обычно проблема заключается в нарушении последовательности. К примеру, страницу можно закрыть от индексации в файле robots.txt, но при этом ссылку на нее добавить в Sitemap XML. Таким образом, мы говорим поисковой системе: «нужно заглянуть сюда, ведь здесь качественная тематическая страница», но при этом запрещаем ее индексацию в другом служебном файле. 

Sitemap

Аналогично ситуация обстоит с метатегами robot noindex/follow. Если в коде страницы планируется использование этих тегов, то страницу нельзя включать в карту сайта, иначе она вообще не попадет в индекс. 

Чтобы избежать ошибок при использовании карты сайта, нужно условно выделить следующие категории его страниц: 

  • служебные. Страницы несут пользу для аудитории, но не являются целевыми с точки зрения конверсии;
  • посадочные. Высококачественные продающие страницы, адаптированные под прием трафика из поисковой выдачи. 

Все страницы, которые вошли в последнюю категорию, должны присутствовать в карте сайта, но их нельзя блокировать. И наоборот, служебные страницы нужно заблокировать, а также исключить их из использования в карте сайта. 

Sitemap XML и общее качество сайта 

Сегодня поисковые системы научились давать комплексную оценку сайта. Определение качества веб-ресурса является важнейшим фактором поискового ранжирования. 

Влияние карты сайта на восприятие его качества можно понять на следующем примере. 

Допустим, на ресурсе есть хорошие страницы, при оптимизации которых были учтены все возможные факторы ранжирования. Но при этом сайт имеет 3000 страниц, из которых только 5 соответствуют высоким стандартам. В такой ситуации ресурс не получит приоритета в ранжировании, так как очевиден слишком большой разрыв в соотношении хороших и плохих страниц. Поисковые системы не любят рисковать лояльностью пользователей, поэтому сайт с плохим содержимым не попадет в топ. 

С другой стороны, разработчики Яндекса и Google понимают, что для нормального функционирования сайта ему нужны служебные страницы, которые никак не связаны с целевым действием. К примеру, это может быть раздел с контактами или страница для заполнения регистрационной формы. Если в Sitemap XML включить все эти страницы, то таким образом мы сообщаем роботам, что просто отсутствуют подсказки относительно качественного контента и страниц с низким приоритетом. 

Рассмотрим еще одну гипотетическую ситуацию: 

К примеру, сайт состоит из 2000 страниц, при этом в карте ресурса отмечено 900 страниц. Это значит, что именно этот контент вы рекомендуете проиндексировать, а остальные советуете считать служебными. Но алгоритмы поисковиков не верят обещаниям и в любом случае проводят проверку. В результате оказывается, что по внутренним метрикам качественных страниц есть только 200 штук. Такую ситуацию поисковая система понимает однозначно: сайт неплохой, но приоритета не заслуживает, так как владелец не может отличить качественную страницу от плохого контента. 

Особенности «маскировки» ненужных страниц 

Как мы выяснили, алгоритмы ранжирования используют данные из карты сайта в качестве шпаргалки, в которой указываются приоритетные для индексации страницы высокого качества. Однако отсутствие страниц в этом файле совершенно не исключает того, что рано или поздно они будут проиндексированы. Чтобы просмотреть все страницы, которые прошли индексацию, достаточно воспользоваться командой «site:». 

Методом исключения можно получить доступ к перечню страниц, которые почему-то не должны были оказаться в карте сайта, но присутствуют там. Это можно сделать с помощью метатегов noindex/follow в файле robots.txt. 

Поисковый запрос, выполненный с помощью оператора «site:», ранжирует страницы по мере снижения их качества и потенциала. Соответственно, страницы из нижней части поисковой выдачи можно доработать или исключить из показа. 

Способы создания Sitemap XML 

Интегрирование в CMS. Многие современные системы управления сайтами уже имеют встроенные функции генерации карты веб-ресурса. Чтобы узнать о наличии подобной функции в определенном движке, придется внимательно изучить техническую документацию. Обычно соответствующая опция находится в настройках администратора. Также всегда можно уточнить детали в службе поддержки программного продукта. Еще можно попробовать с помощью браузера перейти по адресу https://вашсайт.com/sitemap.xml. Есть большая вероятность, что файл Sitemap XML не только уже сгенерирован, но и динамически обновляется. 

Отдельный скрипт. Если хорошо разобраться в протоколе XML-карты и технических спецификациях, то можно своими силами создавать код для генерации карты сайта. Это удобный и рациональный способ, но он подходит только для программистов. Если вы таковым не являетесь, то лучше пользоваться любыми другими методами. 

Внешние плагины. Если ваша CMS не умеет самостоятельно генерировать карту сайта, то это всегда можно сделать посредством стороннего плагина. С помощью все тех же поисковиков можно без проблем найти дополнения практически для любой системы администрирования сайтами. В самых специфических случаях можно привлечь программистов для создания уникального плагина для конкретной платформы. 

Компьютерные парсеры. Это специальное программное обеспечение, которое устанавливается на рабочем ПК. С помощью программы проводится глубокий технический аудит сайта. В том числе на основе его результатов можно получить доступ к файлу Sitemap XML, сформированному методом сканирования структуры проекта. 

Генераторы карты сайта. Сегодня в открытом доступе работают десятки автоматических генераторов карты сайта. Они сканируют ресурс, после чего формируют файл в заданном формате, который можно быстро скачать. Главным минусом такого сервиса является то, что уже после следующего обновления сайта приходится еще раз генерировать новый Sitemap. 

Если речь идет об оптимизации крупного проекта, то стоит отдать предпочтение автоматизированным методам создания карты сайта. Важно понять, что Sitemap XML должен не просто присутствовать, но и передавать поисковой системе актуальные данные. 

Ликвидация проблем с индексацией 

Некоторым оптимизаторам кажется, что Sitemap XML – это малозначительная часть продвижения, которой можно даже пренебречь. Но это не так, более того, в некоторых случаях карта сайта становится незаменимым инструментом. К примеру, Sitemap помогает в тех ситуациях, когда с проекта регулярно отправляются в Сеть подборки страниц, но далеко не все из них успешно проходят индексацию. Это может быть крупный e-commerce-проект с каталогом на 200 тыс. товаров, 10 тыс. страниц категорий и 40 тыс. страниц подкатегорий. Но отправка в Google карты сайта с 250 тыс. адресов показывает, что в индексе находится только 174 тыс. из них. 

Как мы уже говорили, поисковые алгоритмы сканируют то, что им нравится, или то, до чего они «дотянулись», но с меньшим энтузиазмом. Поэтому нужно выяснить причину, почему в индексацию не попало значительное количество товаров. Для этого стоит разделить товары по разным категориям, создав для каждой собственный Sitemap XML. Внесение изменений в карту сайта поможет методом исключения определить, почему некоторые страницы не проходят индексацию. 

Для начала в качестве гипотез используем самые распространенные причины отказа поисковых систем от индексации. Итак, сканирование не проходит на страницах: 

  • без графического изображения товара или иллюстрации услуги;
  • если описание в карточке товара имеет низкую уникальность или объем до 200 слов;
  • отсутствуют отзывы, комментарии или другие факты пользовательской заинтересованности. 

В каждую карту сайта необязательно добавлять все ссылки категории. Главное – включить туда достаточно адресов для того, чтобы по итогам эксперимента можно было сделать однозначный вывод. Обычно для проверки гипотезы требуется 20–50 контрольных образцов для каждой подборки. 

Sitemap

Сама проверка гипотез на основе Sitemap XML проводится таким образом. К примеру, у вас возникло предположение, что страницы не индексируются из-за отсутствия картинок в карточках товара. В контрольную группу новой карты сайта нужно добавить ссылки на страницы, где графический контент был добавлен. Если страницы будут проиндексированы, то нужно будет внести соответствующие изменения по всему ресурсу. Если опыт не дал результата, то стоит проверить другие гипотезы, которые получится придумать. 

Подведем итоги 

Работая над оптимизацией карты сайта, нужно не забывать о логике и последовательности действий. Если страница будет заблокирована с помощью robots.txt или метатега noindex, то ее адреса не должно быть в Sitemap XML. 

Карта сайта – это не список приказов, а перечень рекомендаций для алгоритмов поисковых систем. Этот инструмент лучше применять в качестве средства для удобного выявления ошибок и проблем в индексации. 

При работе с большими проектами настоятельно рекомендуется использовать программные средства синхронизации для карты сайта, файла robots.txt и метатега robots. Ручная поддержка порядка займет слишком много времени, а автоматические инструменты позволят сохранять уверенность в том, что нужные страницы находятся в карте сайта и не противоречат общей логике работы алгоритмов ранжирования. 

Кстати, сервис Rookee автоматически анализирует файл Sitemap XML на ошибки и дает рекомендации по их исправлению. Достаточно зарегистрироваться и создать проект в сервисе – это бесплатно.

Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы в редакцию.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Примеры использования ChatGPT в SEO-стратегии
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Если кто то хочет протестировать Cat GPT в SЕО проектах на базе нашего агенства, приглашаем наудалкнную работу Tg: @thegoodlink
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Анна
1
комментарий
0
читателей
Полный профиль
Анна - Ха, занятно. А я еще видела полезное описание тут digitalproweb.ru/sozdanie-sajtov-vybrat-konstruktory-ili-cms
Как мы увеличили для клиента трафик из поиска в 7 раз. Кейс
Кирилл Половников
2
комментария
0
читателей
Полный профиль
Кирилл Половников - Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией. Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Как в перегретой нише получать заявки и добиться конверсии в 19%
ZRZ8GCHIZ6 www.yandex.ru
1
комментарий
0
читателей
Полный профиль
ZRZ8GCHIZ6 www.yandex.ru - ZRZ8GCHIZ6 www.yandex.ru
Что такое Яндекс Советник, и кому от него жить хорошо
Мама Стифлера
1
комментарий
0
читателей
Полный профиль
Мама Стифлера - Вызывает сожаление, что вы не осознаете, что Яндекс.Советник может быть рассмотрен как форма рэкета, которая заставляет компании, размещающиеся в Яндекс.Маркете, выплачивать дополнительные финансовые средства, повышая в конечном итоге прибыль Яндекс.Маркета, но не принесет пользы для посетителей сайта.
Как дожать сайт до ТОПа? Выжимаем весь сок из SEO под Яндекс и Google
Фанит
2
комментария
0
читателей
Полный профиль
Фанит - Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Особенности внутренней перелинковки для крупных сайтов
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Haaaa! Articol despre "перелинковка" cu scopul de a acapara BackLink-uri. Înțeleg cu exemplele din zona ru, da chiar sa folosiți și md, panda, serios?
В поисках истины: разбираем 7 мифов о Telegram Ads
Konstantin Bulgakov
12
комментариев
0
читателей
Полный профиль
Konstantin Bulgakov - Жаль, про аналитику кампании ничего не сказано. А там всё очень непросто)
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
386
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
118
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!