×

Как собрать низкочастотную семантику: 4 способа, о которых не знают ваши конкуренты

Россия +7 (495) 139-20-33
Шрифт:
0 7591

Продвинуться в топ по ВЧ и СЧ запросам сложно. В некоторых нишах – практически нереально. В топе выдачи плотно сидят колдунщики, агрегаторы и маркетплейсы. Но есть выход – продвигаться по низкочастотным запросам (НЧ). По ним можно быстро выйти на первые строчки поисковой выдачи и получать целевой трафик.

Легко? Не совсем. Если нужно собрать НЧ-запросы, первым приходит в голову воспользоваться Яндекс.Вордстатом и Планировщиком ключевых слов Google. Но так же думают и ваши конкуренты. И пока вы читаете эти строки, кто-то уже оптимизирует страницы своего сайта под собранные в Вордстате НЧ-запросы.

Решение есть: найти низкочастотные запросы, о которых не догадываются ваши конкуренты (по-крайней мере, большинство из них).

Что это за запросы и где их искать – рассказываем в статье.

Способ 1. Парсим похожие вопросы с выдачи Google

Введите в поиске Google любой информационный запрос. Например, в формате «как сделать...». В выдаче, скорее всего, кроме обычных сниппетов появится блок с похожими вопросами. Выглядит он вот так:

Парсим похожие вопросы с выдачи Google

При клике по любому вопросу он раскрывается, отображается ответ (релевантный фрагмент контента) и ссылка на страницу, откуда этот ответ взят.

Также при раскрытии одного вопроса ниже появляются новые вопросы. Соответственно, чем больше вопросов вы раскроете, тем больше появится новых вопросов и ответов.

Что с этим делать?

«Похожие вопросы» — тот самый источник низкочастотных запросов, о котором могут не догадываться ваши конкуренты. Алгоритм работы такой:

  1. Открыть как можно больше вопросов (чтобы подгрузились новые и список был больше).
  2. Собрать вопросы в файл.
  3. Оптимизировать под них существующий контент на сайте или создать новые страницы.

Собрать вопросы можно вручную: раскрыть как можно больше, выделить их, затем скопировать и вставить в Google Таблицы или Excel. Минус такого способа скопируется лишний контент (ссылки и картинки).

«Похожие вопросы» — тот самый источник низкочастотных запросов

Такую табличку нужно будет почистить от ненужного контента, чтобы остались только вопросы.

Но проще спарсить вопросы с помощью Xpath-парсера. Если вы не знакомы с Xpath, это не проблема. Это специальный язык запросов, с помощью которых можно извлечь содержимое любого html или xml документа. Для парсинга вопросов, на самом деле, о Xpath больше знать ничего и не нужно. Но если хотите узнать больше о синтаксисе языка и возможностях использования, почитайте документацию.

Сбор запросов с помощью Xpath-парсера

1. Будем использовать бесплатный Xpath-парсер Scraper — расширение для Google Chrome. Найдите Scraper в магазине расширений или перейдите по ссылке и установите.
2. Откройте страницу поиска Google и переключитесь на английский язык в настройках (кликните по Настройки → Языки). Это необходимо для корректной работы. 

Сбор запросов с помощью Xpath-парсера


3. Вбейте в поиск информационный запрос по вашей тематике и найдите блок «People also ask»).

Откройте все вопросы, которые показываются в блоке изначально, а затем откройте новые вопросы, которые появились после открытия первых.

Не ограничивайте себя: откройте максимальное количество вопросов – чем больше, тем лучше. Удобнее всего начать с нижних вопросов и открывать их снизу вверх.

Пример Сбор запросов с помощью Xpath-парсера

4. Кликните по иконке Scraper’а, в меню расширения выберите пункт «Scrape similar...».


Пример сбора запросов с помощью Xpath-парсера

5. Откроется окно парсера. В блоке Selector выберите Xpath в выпадающем списке, а в поле справа введите «//g-accordion-expander».

Обратите также внимание на блок «Column». Заполните его так, как показано на скриншоте:

Блок «Column»

Затем нажмите кнопку «Scrape».

В правой области окна появятся данные, которые собрал парсер. Теперь их нужно привести в удобный для использования вид. Если мы их в таком виде вставим в Excel, работать с ними будет достаточно непросто:

Кнопка «Scrape»

С таким текстом можно справиться с помощью формул: разбить текст на колонки и затем взять только вопросы.

Но нет смысла ломать голову, так как есть готовое решение. Для этого нужны Google Таблицы и этот шаблон. Откройте шаблон и нажмите «Файл → Создать копию».

Откройте копию и перейдите на лист «Google Questions and Answers».

Дальше последовательность действий такая:

  1. В интерфейсе парсера (Scraper) кликаем по кнопке «Copy to clipboard».

  2. Переходим в таблицу с шаблоном и устанавливаем курсор в ячейку А10 (с содержимым «Text»).

Сбор запросов с помощью Xpath-парсера

  1. Нажимаем сочетание клавиш Ctrl+Shift+V. Собранные парсером значения будут вставлены в первый столбец таблицы, а в остальных столбцах формулы разобьют сплошной текст на фрагменты (вопрос, ответ и другие).

  2. Открываем лист «Clean Data» – в столбце «Question» будет список вопросов, очищенный от дубликатов. Копируем список и вставляем его в отдельную таблицу или текстовый файл.

Сбор запросов с помощью Xpath-парсера

Обратите внимание! После такой процедуры у вас на руках не только список перспективных НЧ-запросов, но и практически готовый контент-план для статей.

Способ 2. Собираем запросы «с хвостами» на площадках вопросов и ответов

Ответы Mail.ru, Тостер, The Question – хорошие источники «живых» НЧ-запросов.

Для примера зайдем на Тостер. Вводим в поиске запрос по нашей тематике – «как выбрать домен». В результатах поиска отобразятся похожие вопросы – их нам выгодно собрать и использовать как НЧ-семантику.

Естественно, вручную вопросы мы копировать не будем. Их также можно спарсить с помощью Xpath. Если мы используем Scraper, то последовательность действий будет такой:

  1. Кликаем правой кнопкой мыши по любому вопросу.

  2. В контекстном меню кликаем по пункту «Scrape similar...».

Собираем запросы «с хвостами» на площадках вопросов и ответов

  1. Парсер соберет все вопросы со страницы. Жмем «Copy to clipboard» и вставляем в файл с семантикой (Excel или Google Таблицу).

Собираем запросы «с хвостами» на площадках вопросов и ответов

Если используете другой Xpath-парсер

Например, Screaming Frog SEO Spider.

Нужно получить Xpath-запрос, с помощью которого парсер соберет вопросы со страницы. Для этого кликаем правой кнопкой мыши по любому вопросу и выбираем пункт «Просмотреть код». Кликаем правой кнопкой по html-коду вопроса (подсвеченный фрагмент), жмем Copy → Copy Xpath.

Если используете другой Xpath-парсер

Код запроса вставляем в парсер и загружаем URL страниц, на которых нужно собрать вопросы. Подробная инструкция по парсингу с помощью XPath в Screaming Frog SEO Spider – здесь.

Парсинг в Google Таблицах

Если вы не хотите искать и устанавливать бесплатные парсеры (или покупать Screaming Frog), используйте Google Таблицы. С помощью одной функции и Xpath-запроса вы можете спарсить любой элемент с практически любого сайта.

Функция и синтаксис:

=IMPORTXML(”URL”;”Xpath-запрос”)

Разместите URL страницы, которые хотите спарсить, в ячейке таблицы. А в формулу функции первым значением укажите адрес этой ячейки. Так вам будет удобнее работать с формулой, если нужно спарсить данные с нескольких URL.

Парсинг в Google Таблицах

В Google Таблицах много полезных формул, которые упрощают работу SEO-специалистам и тем, кто самостоятельно работает с семантикой. Больше таких формул вы найдете в подборке.

Еще один способ собрать вопросы

Сервис AnswerThePublic подбирает широкий пул вопросов, слов с предлогами и похожих фраз на основе одного базового запроса.

Сервис англоязычный, но с недавних пор поддерживает русский язык и подходит для сбора русскоязычной семантики.

Как это работает

Заходите на сайт сервиса, выбираете русский язык, указываете ключевую фразу, для которой нужно подобрать запросы и жмете «Get Questions».

Сервис подбирает ключевики и визуализирует в таком виде:

Сервис AnswerThePublic подбирает широкий пул вопросов

Нажмите «Download CSV», чтобы выгрузить ключевые слова в таблицу.

Сервис AnswerThePublic

Вот так выглядит таблица с выгрузкой подобранных ключей:

таблица с выгрузкой подобранных ключей

Способ 3. Подбор ключевых слов конкурентов с дальнейшим углублением

Этот способ заключается в следующем: собираем ключевые слова, под которые оптимизированы сайты ваших конкурентов, а затем углубляем семантику. Таким образом мы можем собрать ключевые слова, которые упустили.

Собрать семантику конкурентов и углубить можно с помощью платформы PromoPult. Зарегистрируйте аккаунт (это бесплатно), создайте проект. На этапе выбора инструмента кликните по инструменту «Поисковое продвижение SEO».

Подбор ключевых слов конкурентов с дальнейшим углублением

На следующем этапе укажите URL вашего сайта, регион, а также укажите название проекта.

Подбор ключевых слов конкурентов с дальнейшим углублением

Нажмите «Создать проект». Система переведет вас на следующий шаг и автоматически подберет запросы, по которым страницы вашего сайта ранжируются в топ-50 Яндекс и/или Google. С этой семантикой также можно поработать и подобрать фразы «с хвостами». Но мы будем собирать семантику конкурентов, поэтому переключаемся на вкладку «Слова ваших конкурентов».

Добавляем адреса сайтов, с которых хотим собрать семантику, затем жмем «Показать слова всех конкурентов».

Подбор ключевых слов конкурентов с дальнейшим углублением

Система проанализирует сайты, URL которых вы указали, и покажет список найденных ключевых слов.

Просмотрите список и выберите слова, которые будете использовать для углубления семантики. Проставьте на этих словах галочки и добавьте к опорному списку (на его основе мы будем расширять семантику).

Подбор ключевых слов конкурентов с дальнейшим углублением

В блоке «Ручной подбор и расширений слов» появится список опорных фраз. Кликните по ссылке «Включить проф. режим», чтобы продолжить работу.

Ручной подбор и расширений слов

В профессиональном режиме можно по-разному работать с опорными словами – например, спарсить левую колонку Яндекс.Вордстата или подобрать фразы-ассоциации (с правой колонки Вордстата).

Мы добавили в опорный список 5 фраз и будем использовать для углубления семантики инструмент «СЧ+НЧ».

учной подбор и расширений слов

Результат: система подобрала 2186 ключевых фраз (обратите внимание, в опорном списке было всего пять фраз). Подобранные ключи можно добавить в опорный список и снова использовать инструмент «СЧ+НЧ», углубляя семантику уже по собранным запросам.

После того как вы соберете достаточное количество ключей, выгрузите их с помощью функции экспорта.

Обратите внимание! Сбор семантики конкурентов и ее углубление в PromoPult бесплатны. Весь функционал доступен без ограничений – можно запускать любое количество проверок и собирать любое количество ключевых слов.

Детальнее о работе с подборщиком PromoPult – читайте в кейсе о сборе семантики для интернет-магазина гироскутеров.

Способ 4. Выгрузка запросов из рекламных кабинетов Google и Яндекса

Этот способ подойдет тем, кто активно рекламируется в Яндекс.Директе и Google Рекламе (а точнее, запускает поисковую рекламу). Если у вас запущены рекламные кампании по ключам в широком соответствии, вы сможете без проблем выгрузить НЧ-запросы, по которым рекламные системы показывают ваши объявления на поиске.

Обратите внимание. Если РК запущены по ключам в точном соответствии, дополнительные НЧ-запросы собрать не получится.

Для примера покажем, как выгрузить запросы из кампании в Google Ads.

Заходим в интерфейс Google Ads, открываем нужную кампанию, раздел «Ключевые слова» и переходим на вкладку «Запросы». Выгружаем их в Excel или Google Таблицы с помощью кнопки «Скачать».

Выгрузка запросов из рекламных кабинетов Google и Яндекса

Если вы пока что не рекламировались на поиске, запустите тестовую кампанию на неделю. За этот период времени или даже быстрее у вас накопится статистика и вы сможете собрать базовые запросы.

С помощью этого способа вы получаете наиболее актуальные ключевые фразы. Оптимизируйте под них страницы сайта и вы будете на шаг впереди большинства конкурентов: данные в Вордстат поступают с задержкой, поэтому если конкуренты собирают семантику только в нем, ваши запросы будут актуальнее.

Выгрузка запросов из рекламных кабинетов Google и Яндекса

После выгрузки запросов из рекламных кампаний проверьте их частотность и выберите подходящие запросы для оптимизации. Также эти запросы вы можете использовать для углубления семантики – воспользуйтесь подборщиком PromoPult (как это делать – описано в предыдущем разделе).

(Голосов: 12, Рейтинг: 5)
0
0

Есть о чем рассказать? Тогда присылайте свои материалы в редакцию.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
14
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
demimurych
5
комментариев
0
читателей
Полный профиль
demimurych - о господи. это для регионального сайта? в яндексе? где у сайта по региону конкурентов меньше чем выдачи на двух страницах из которых перваш это реклама москвы? потешно ей богу. ктото чего то не понеимает.
Зачем подменять контент на сайте: разбираем инструмент и развенчиваем мифы
Дмитрий Сульман
4
комментария
0
читателей
Полный профиль
Дмитрий Сульман - Все верно, об этом я и говорю. У крупных компаний есть много данных и они имеют доступ к дорогим технологиям и решениям для персонализации контента. Топовые западные сервисы для персонализации, такие как RichRelevance или Dynamic Yield, стоят от нескольких тысяч до десятков тысяч долларов в месяц. Понятно, что малый бизнес не может себе этого позволить. Да даже если бы чисто теоретически и мог, то это вряд ли бы имело хоть какой-то смысл. Во-первых, у малого бизнеса недостаточно данных, чтобы подобные алгоритмы персонализации начали эффективно работать, а во-вторых, тот профит, который МСБ получит от персонализации, никогда не покроет таких расходов. Мы же предлагаем решение, доступное как раз для малого и среднего бизнеса. При этом наше решение комплексное: МультиЧат - это одновременно и инструмент для персонализации, и для коммуникации.
«Аудит, чтобы ты заплакала…», или Что делать, когда получил сторонний аудит сайта
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Воообще, на самом деле здесь двоякое впечатление от таких аудитов. Конечно, для полного глубокого анализа и подготовки рекомендаций по сайту - нужны доступы к системам аналитики и инструментам вебмастера. Но если оценивать подобные аудиты с точки зрения чистого SEO (которое все больше и больше становится лишь малой частью digital-маркетинга, лишь одним из каналов) - они имеют место быть. Но с оговоркой, что они сделаны с учетом анализа конкурентов/отрасли. Современные инструменты и алгоритмы позволяют делать это маркетологам в автоматическом режиме, и даже давать рекомендации - возможностями машинного обучения уже никого не удивишь. Да, полное перечисление "мифического" списка ошибок, построенного по предикативным правилам, да еще и с учетом устаревших особенностей ПС - это явный признак некачественного аудита. В первую очередь потому, что эти "ошибки" следует рассматривать в качестве рекомендаций от ПС (как и говорится в справочнике вебмастера у Яндекса/Google). Однако если эти данные даются с отсылкой на данные о конкурентах, об отрасли, используются методы ML и Natural language processing для обработки исходных данных, кластеризации запросов, классификации страниц/запросов/сайтов, определения структуры документа - такие отчеты имеют право на существование. Но ключевым моментом является то, что подобные инструменты достаточно сложны в разработке, а значит требуют квалифицированных специалистов для их разработки. Которых просто нет у студий рассылающих подобные "сео отчеты". Подобные отчеты по "ошибках" тоже неплохой источник информации, но лишь на 0 этапе анализа сайта. И в принципе, теоретически, возможно почти полное составление "хороших аудитов" без участия маркетолога, на основе лишь открытых данных сайта/внешних источников, но только при соответствующем применении всех современных возможностей анализа данных и рекомендательных систем. И в любом случае подобный "хороший отчет" требует конечного заключения от эксперта.
Как вывести сайт в ТОП 10 Google в 2019 году
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Интересная статья. Подскажите на каких ресурсах расположить ссылки бесплатно по автобезопасности? Наш сайт bastion-center.ru/
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита
Kosta Bankovski
4
комментария
0
читателей
Полный профиль
Kosta Bankovski - Спасибо за приятные слова! Буду и дальше делиться наработками ;)
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Как удвоить выручку за счет продвижения в поиске. Кейс coffee-butik.ru
Максим Боровой
2
комментария
0
читателей
Полный профиль
Максим Боровой - Последний вопрос (извиняюсь за количество) - почему на "В корзину" стоит Nofollow. Осознанно для распределение весов?
10 элементов сайта, которые гарантированно отпугнут посетителей
Андрей
2
комментария
0
читателей
Полный профиль
Андрей - Ну типа потому что клиентское seo больше для коммерции предназначено. Типа контентники и сами знают что делать. В коммерции можно тысячу причин найти чтобы поработать с сайтом, а с контентными такие фокусы уже не прокатят, поэтому и не пишут. Всё продвижение для контентников сеошники описывают в трех словах: скорость, качество, систематичность. А, ну ещё конечно же СЯ, как же я про него забыл (фундамент жеть!).
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
362
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
107
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
83
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!