4 способа быстро собрать теги для сайта
Тегирование сайта — процесс создания страниц для группировки материалов/товаров по схожим признакам.
Этот метод подходит для таких типов сайтов, как:
- интернет-магазины,
- доски объявлений,
- информационные сайты с большим количеством статей,
- порталы.
Целями создания тегов являются:
- увеличение трафика путем создания дополнительных страниц (точек входа);
- улучшение навигации;
- рост конверсии и удовлетворенности пользователя.
В данной статье мы рассмотрим способы, как можно быстро собрать теги для сайта.
Как быстро собрать теги
1. Собрать список сайтов для сбора тегов.
2. Получить теги с выбранного списка сайтов.
3. Подготовить файл с названием тега, URL страницы, h1, title, description, хлебными крошками.
Как найти сайты для сбора тегов
1. Выдача поисковых систем по основному запросу
Вводим в поисковую систему (Яндекс, Google) основной запрос, изучаем сайты на предмет тегов.
Пример основного запроса — «платья».
В некоторых случаях присутствуют карты сайта, где имеются ссылки на страницы всех тегов, имеет смысл их поискать. Эти же сайты в дальнейшем можно использовать для поиска тегов и для других запросов.
2. Выдача поисковых систем по запросу для страницы тега
Вводим в поисковую систему (Яндекс, Google) запрос для страницы тега, изучаем сайты на предмет тегов.
Пример запроса для страницы тега — «платья с длинным рукавом».
3. Сервисы
Можно использовать сервисы, где видно конкурентов со схожими ключами.
Например — keys.so.
В качестве примера приведу список сайтов-конкурентов для интернет-магазина по продаже одежды. Параметры похожести и тематичности подбираются в зависимости от проекта.
В данном примере:
- Мы оставляем сайты с тематичностью от 30 %. Тематичность — сколько процентов наших ключей имеется на сайте конкурента.
- Фильтрацию по похожести не производим, так как наш сайт находится на начальной стадии развития, а конкуренты, продающие одежду, имеют очень большое количество запросов в топе. Похожесть — процент общих ключей от всех ключей сайта конкурента.
- Проходимся по сайтам и убираем те, которые нам не подходят.
Выгрузка по фильтрам из сервиса keys.so
Как получить теги с выбранного списка сайтов
Для сбора большего количества тегов во всех способах рекомендуется использовать как минимум несколько сайтов. Есть разные варианты, как можно получить теги с определенного сайта.
1. Скопировать вручную
Заходим на сайты конкурентов и вручную копируем названия.
Я рассмотрю тему на примере небольшого количества запросов, чтобы было проще воспринимать информацию, при этом максимально усложню задачу, добавив основные сложности, с которыми можно столкнуться.
Создаем Excel-файл, «столбик А» называем «Название». Копируем туда теги с разных сайтов.
Теги с разных сайтов
Далее удаляем явные дубли (на молнии = на молнии), понимая, что у нас еще останутся неявные дубли.
Теги без явных дублей
Заполняем названия остальных столбиков:
B — URL
C — h1
D — description
E — Ч
F — Ч “”
G — Путь
Заголовки таблицы
В итоге получаем поля:
Название — название тега, которое будет показываться на странице, где на него будет стоять ссылка. Например, на странице «Платья» выводятся ссылки на теги.
Вывод тегов на сайте
URL — URL тега
h1 — h1, он же заголовок страницы
description — поле, данные из которого будут использоваться для генерации метатега description
Ч — общая частотность по Вордстату (запрос)
«Ч» — частотность данной фразы с учетом всех морфологических форм («запрос»)
Путь — расположение тега на сайте = хлебные крошки
Заполняем по порядку.
h1 — к значению в поле «Название» добавляем слово «платья».
Таблица со значениями h1
В данном случае для генерации title используется значение из поля h1, поэтому он не представлен в таблице.
description — используем данные из столбика h1 и делаем первую букву маленькой. Для этого используем функцию «СТРОЧН» в Excel.
Таблица со значениями h1 и description
С использованием значений из этого поля пишем генератор description.
Запросы из столбика description добавляем в Key Collector. Отмечаем неявные дубли.
Вручную удаляем неявные дубли из нашей таблицы. Обычно неявные дубли встречаются в небольших количествах, поэтому это несложно сделать.
В итоге остается:
Столбик description
URL — генерируем, используя функцию URL от Seo-Excel из поля description.
Поля для ввода данных при генерации URL в SEO-Excel
Получаем:
Сгенерированные URL
Ч и «Ч» — снимаем частотность любым удобным инструментом или сервисом.
Ч — используем для удаления запросов, не имеющих частотности. Для сезонных запросов можно дополнительно снимать частотность по месяцам.
«Ч» — используем для понимания, не является ли данный запрос составляющей другого запроса (возможно такого запроса не существует).
Путь — для данного проекта теги лежат внутри основного раздела.
Добавляем «Главная — Платья — » и потом то, что идет в h1.
В случае с вложенными тегами (когда один тег вложен в другой) путь может меняться.
Например, для запроса «Короткие вечерние платья» путь будет «Главная — Платья — Вечерние платья — Короткие вечерние платья».
Таблица с заполненным столбиком «Путь»
Там же в зависимости от выбранного метода вывода ссылок может меняться название:
- если оно выводится на странице всех платьев, оно может иметь название «короткие вечерние»;
- если на странице вечерних платьев, то «короткие».
С примером, разобранным в задаче, можно ознакомиться в Google Docs.
Плюсы:
- просто;
- не требуются дополнительные программы;
- хорошо подходит для сайтов с нестандартной URL-структурой.
Минусы:
- больше ручной работы.
2. Парсинг программой Screaming Frog SEO Spider
Для выполнения данного пункта потребуется программа Screaming Frog SEO Spider (платная).
Настройка
Рассмотрим пример парсинга тегов со страницы Платья на сайте www.wildberries.ru.
Для начала в программе нам нужно заполнить две настройки.
Configuration — Include (Правила включения)
Сюда мы добавим URL, с которых начинаются теги. Эти теги будет добавлять программа.
Все теги на странице платьев начинаются с такого URL: https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/
Добавляем таким образом:
https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/.* |
Окно для ввода параметров в «Правила включения» в Screaming Frog SEO Spider
Configuration — Exclude (Правила исключения)
Наша задача состоит в том, чтобы исключить страницы пагинации, сортировки и страницы такого типа, которые по смыслу дублируют основную страницу. Такие страницы не несут смысла для нашей задачи.
Исключаем по элементам, которые содержатся в URL: .*%элемент в URL%.*
У меня получилось так:
.*page-.* .*page=.* .*pagesize=.* |
Окно для ввода параметров в «Правила исключения» в Screaming Frog SEO Spider
Со временем соберется большой список таких параметров, и это упростит работу.
Парсинг
Вбиваем URL основной страницы и нажимаем «Start»: https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya
Окно ввода URL в Screaming Frog SEO Spider
Получаем список из 313 страниц тегов по Платьям с названиями.
Значения вкладки «h1» в Screaming Frog SEO Spider
Дальше уже можем работать с тегами h1.
Значения столбика H1-1 вкладки «h1» в Screaming Frog SEO Spider
С примером полученного результата можно ознакомиться в Google Docs.
Скорость ответа сервера у большинства сайтов с тегами быстрая. Поэтому скорость парсинга будет зависеть от:
- настроек программы,
- мощности компьютера,
- наличия защиты от DDoS на сайтах.
Плюсы:
- программный сбор информации.
Минусы:
- нужна платная программа Screaming Frog SEO Spider;
- требуется настройка параметров исключения для страниц, дублирующих основную (пагинация, фильтры, сортировки);
- не у всех сайтов удобная URL-структура для парсинга тегов.
3. Парсинг из поисковой системы
Сбор страниц, начинающихся с определенного URL, из выдачи поисковой системы.
Для просмотра страниц нужно задать запрос вида:
url:%URL с которого начинаются страницы тегов%* |
Например, чтобы посмотреть теги со страницы Платья на сайте www.wildberries.ru, нужно задать запрос вида:
url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/* |
Ограничение Яндекса — не более 1000 результатов, поэтому если в выдаче более 1000 результатов, то парсим, каким-либо образом ограничивая количество результатов, например, побуквенно.
Если бы у нас было более 1000 результатов, мы собирали таким образом:
url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/a* |
url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/b* |
Парсить выдачу можно через Key Collector.
Для совсем небольших сайтов при парсинге по буквам или по каким-то небольшим кластерам можно использовать выгрузку ТОП-100 сайтов по запросу в ПС Yandex от сайта Arsenkin.ru (быстро и бесплатно). Далее для этих страниц парсим h1 через SeoPult.
Плюсы:
- программный сбор информации
Минусы:
- не все страницы, которые есть на сайте, могут быть проиндексированы;
- для некоторых сайтов требуется удалить страницы, дублирующие основную (пагинация, фильтры, сортировки);
- не у всех сайтов удобная URL-структура для парсинга тегов.
4. Парсинг по элементу URL в keys.so
Сбор страниц с определенным URL в сервисе keys.so.
1. Делаем отчет по сайту.
2. Смотрим отчет, где показываются все страницы сайта.
3. Фильтруем по полю «Адрес содержит», вбивая нужный элемент URL, чтобы показывались только теги.
Фильтр в примере:
/catalog/zhenshchinam/odezhda/platya/tags |
Поле для задания фильтров в сервисе keys.so
Список отфильтрованных страниц в сервисе keys.so
Далее для этих страниц парсим h1 через SeoPult.
Плюсы:
- сбор информации через сервис;
- обычно отсутствуют страницы, дублирующие основную (пагинация, фильтры, сортировки).
Минусы:
- нужен доступ в Keys.so (платный);
- сервис показывает не все страницы, которые есть на сайте, а только те, где есть хотя бы 1 ключевое слово в ТОП 50;
- не у всех сайтов удобная URL-структура для парсинга тегов.
Вывод
Мы рассмотрели 4 способа быстрого сбора тегов для сайта. Эти способы позволяют сэкономить время на сборе и создании страниц тегов, сделав это быстрее, чем занимаясь ручной разгруппировкой семантического ядра. У каждого метода свои плюсы и минусы. Выбор способа зависит от задачи и имеющегося набора инструментов и сервисов.
Если есть какие-то вопросы или предложения, как можно сделать лучше, предлагаю обсудить в комментариях.
![]() ![]() ![]() |
Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772 Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом. |
![]() ![]() ![]() |
Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой
-
Зачем так сложно? Можно же просто через инструмент собрать c-wd.ru/tools/check-tags/
-
Очень полезная статья.
Можете подсказать как именно парсить результаты выдачи по заданному URLe через Кей Коллектор?
Я обыскалась и так и не нашла нормальный парсер ((( -
Аболденная статья! Очень пригодилась.
Правда одна сложность - я обыскалась парсер, который может спарсить поисковую выдачу..
Подскажите, как именно парсить выдачу по заданному URLу через Кей Коллектор, как в варианте № 3&-
1. Заходите в настройки Key Collector - drive.google.com/open?id=1sOPMrsVwoWJKNVWIHnubceTshte6fgPY
2. Заходите «Парсинг» - «Поисковая выдача»
2.1. Ставите галочку «Использовать Yandex.XML».
Вставляете полученный в панели адрес авторизации.
drive.google.com/open?id=16q6rWPZTORXgobRdyoFcTDe2WbH-76bU
Для того, чтобы его получить заходите на xml.yandex.ru/settings/ (нужно быть зарегистрированным в Яндексе).
Вставляете свой IP...1. Заходите в настройки Key Collector - drive.google.com/open?id=1sOPMrsVwoWJKNVWIHnubceTshte6fgPY
2. Заходите «Парсинг» - «Поисковая выдача»
2.1. Ставите галочку «Использовать Yandex.XML».
Вставляете полученный в панели адрес авторизации.
drive.google.com/open?id=16q6rWPZTORXgobRdyoFcTDe2WbH-76bU
Для того, чтобы его получить заходите на xml.yandex.ru/settings/ (нужно быть зарегистрированным в Яндексе).
Вставляете свой IP адрес.
Тип поиска выбираете «Мировой» (это позволяет увеличить количество лимитов).
Нажимаете «Сохранить».
Копируете URL для запросов в Key Collector.
drive.google.com/open?id=1OoyCAhfUkPffTOgyckIGJi9-hfPaS9HX
Парсить выдачу с использованием Yandex.XML удобнее и быстрее (нет капчи и т.п.).
2.2. «Количество запрашиваемых результатов» ставите «50».
«Не просматрвать глубже» ставите «1000» позиции.
(Яндекс не показывает более 1000 результатов, но обычно этого хватает для работы с тегами).
drive.google.com/open?id=1FKShNpoRfr-HLV-j1qK2l9KebzmMdA5h
3. Заходите «KEI & SERP»
Ставите настройки как на скриншоте
drive.google.com/open?id=1_bGVcLPulAeTRxJ8KniMh9N6Qa19nzgV
4. Переходим непосредственно к парсингу.
В качестве примера возьмем пример из статьи.
Мы хотим спрасить URL по запросу
url:www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/*
В Key Collector нажимаем «Добавить фразы»
drive.google.com/open?id=12L2pQX2sApFT7qWPfzj_kKiTZQyRj3er
Туда вставляем
url:www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/*
Получается так
drive.google.com/open?id=1_uZuoRX6azHry0Q5pVQ2YnHzLqC1JF0y
Нажимаем «Добавить в таблицу» и получается так
drive.google.com/open?id=1u-_YwZa9TiHVAms7h093l2cOjN9y-IZN
Нажимаете на кнопку «Вычисление KEI»
drive.google.com/open?id=1EgJyWcSt0Turohwh8TzqqNr4NHmlYKVQ
Выбираете «Получить данные для ПС Яндекс»
drive.google.com/open?id=1s8X19ShmPTzOYRf_m93OfkAWnNM8Sbsw
Ждете пока данные будут получены (обычно это происходит очень быстро).
Как данные будут получены нажимаете на кнопку «Вычисление KEI» и выбираете «Экспортировать данные о поисковой выдаче».
drive.google.com/open?id=1levexrrA_9fapyijibfAnZYTcqdiW164
Получается такой результат
drive.google.com/open?id=1TPnPF3CmYcUWVRI8hxT7pWyNQejeaQc3pdyLOVqIxGs
-
-
Спасибо за статью. А что, если парсить нечего – нет пока в нише конкурентов с готовыми тегами?
-
Поддержу комментарий Павла.
Еще стоит учесть, что теги бывают не всегда видны визуально, то есть в коде могут быть ссылки на теги, а на самом сайте визуально они скрыты. Такое встречается не так часто, но встречается.
В зависимости от наличия тех или иных инструментов:
- если есть Screaming Frog, то можно начать парсить страницу на которой могут теги и по факту смотреть, есть ли там теги, в зависимости от настроек программы, обычно хватает 15-20 секунд, ...Поддержу комментарий Павла.
Еще стоит учесть, что теги бывают не всегда видны визуально, то есть в коде могут быть ссылки на теги, а на самом сайте визуально они скрыты. Такое встречается не так часто, но встречается.
В зависимости от наличия тех или иных инструментов:
- если есть Screaming Frog, то можно начать парсить страницу на которой могут теги и по факту смотреть, есть ли там теги, в зависимости от настроек программы, обычно хватает 15-20 секунд, чтобы понять это;
- если нету Screaming Frog, то можно сделать поиск по сайту в Яндексе и Google, с предполагаемым названием тега.
-
-
Если есть сайт/группа сайтов с хорошей структурой как в примере, то есть более простой и бесплатный способ взять теги - открыть sitemap.xml и отфильтровать значения по нужному урлу. В случае с нормальными сайтами и сеошниками, шанс что в сайтмэпе нет тегов, нулевой:)
-
Круто парсить теги конкурентов, но где взять столько товаров, как у Wildberries? Или вы предлагаете просто их создать, чтобы трафик гнать. Зачем все эти страницы, если под них нет товара? Не проще ли создавать страницы тегов исходя из собственного ассортимента и его свойств?
-
1. Вы все верно отметили - не стоит создавать страницы для которых нету товаров.
Не описал этот момент в статье. После сбора тегов, удаления дублей и запросов без частотности, отправляем их на утверждение клиенту, клиент утверждает те теги под которые у него есть подходящие товары на сайте и мы работаем именно с ними.
При этом я сразу, до того как отправить клиенту на утверждение, заполняю и остальные поля - так как это делается быстро и позволяет потом не возвращат...1. Вы все верно отметили - не стоит создавать страницы для которых нету товаров.
Не описал этот момент в статье. После сбора тегов, удаления дублей и запросов без частотности, отправляем их на утверждение клиенту, клиент утверждает те теги под которые у него есть подходящие товары на сайте и мы работаем именно с ними.
При этом я сразу, до того как отправить клиенту на утверждение, заполняю и остальные поля - так как это делается быстро и позволяет потом не возвращаться к этому. А когда отправляю клиенту - просто скрываю эти поля, чтобы они ему не мешали.
2. Создавать страницы из свойств своих товаров тоже хороший вариант, но обычно он не охватывает все возможные страницы, под которые есть товары и которые можно создать.






























