сервис аналитики звонков и оптимизации
бизнес-процессов
Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:

Методы построения семантического ядра

Россия +7 (495) 960-65-87
Шрифт:
13 5366

«Семь раз отмерь, один раз отрежь»
Русская народная мудрость

Прежде чем продвигать сайт, мы должны определить какие страницы и по каким запросам мы будем продвигать. В этой статье мы рассмотрим два диаметрально противоположных подхода к составлению семантического ядра.

С каждым годом растет конкуренция по коммерческим запросам. Поэтому все более популярным становится продвижение по огромному числу низко- и среднечастотных запросов.

Если еще года два назад клиенты интересовались исключительно позициями сайта, то теперь же они оценивают работу оптимизатора в основном по целевому трафику. В СЧ и НЧ запросах трафика в разы больше, чем в ВЧ. В этом можно легко убедиться, набрав любой ВЧ в WordStat с кавычками и без. Например, показов «ноутбуки в Москве» 13000, а показов «„ноутбуки в Москве“» (без уточняющих слов) всего 369.

Но имея множество запросов, мы получаем проблемы с разросшимся семантическим ядром. Если года два-три назад СЯ состояли максимум из нескольких десятков запросов, то теперь же в них входят сотни или даже тысячи ключевых слов.

Раньше для каждого запроса благодаря специальным программам (например, Yazzle) можно было посмотреть обратные ссылки конкурентов и достаточно точно определить их бюджеты. Сейчас такое практически невозможно, поскольку требуется слишком много машинного времени на каждый запрос. Да и применимо это к ВЧ запросам, которые продвигаются, в основном, через покупку ссылок, а не через внутренние факторы.

Несмотря на все это, большинство оптимизаторов все еще используют традиционный подход к составлению семантического ядра.

Традиционный подход

Этим методом мы составляли СЯ лет пять назад. Большинство оптимизаторов и сейчас использует этот подход. Со временем подход, конечно, немного менялся, но суть оставалась прежней:

  • Составляем список запросов
  • Оцениваем конкуренцию
  • Отсеиваем часть запросов, которые имеют неоправданно высокую конкуренцию
  • Продвигаем запросы пропорционально нашей оценке конкуренции и/или их частотности

Как я уже говорил, сейчас конкуренцию мы не можем адекватно посчитать. Поэтому мы все чаще продвигаем запросы пропорционально их частотности. Однако, с частотностью у нас тоже масса проблем. Статистика Wordstat отображает число показов страниц, а не число запросов. Другими словами, если пользователь набрал запрос и перешел на вторую страницу выдачи, то это уже 2 показа.

Посчитать число запросов в Яндексе можно, посмотрев статистику Рамблера, в которой отображается и число показов, и число запросов. Но глубина просмотра выдачи (число показов на один запрос) зависит от релевантности выдачи, поэтому этот показатель у Рамблера мало что может сказать об этом же показателе у Яндекса. К тому же, Рамблер — мертвая поисковая система, в которой несколько случайных пользователей могут создать статистическую погрешность.

Оптимизаторы, отслеживая позиции сайтов, вносят значительные погрешности в данные WordStat. Образуется большое число запросов-пустышек, которые интересуют только оптимизаторов и их программы для мониторинга позиций. Часть таких запросов можно отфильтровать разнообразными способами, но полностью удалить результаты SEO-прессинга мы не можем.

Думаю, ни для кого не секрет, что выдача по запросам «ноутбук» и «ноутбуки» разная. Поэтому нам нужно определить все словоформы, в которых вводится пользователями запрос, и продвигать сайты по ним, пропорционально числу запросов. В WordStat мы можем использовать оператор «!» и определить частотность словоформ. Однако, это, опять же, требует много машинного или человеческого времени, и здесь SEO-прессинг вносит еще большие погрешности.

Выдача же зависит не только от словоформы, но и от порядка слов и знаков препинания в запросе. Например, выдача для любого из этих 8-ми запросов разная:

  • «санкт-петербург ноутбуки»
  • «санкт-петербург, ноутбуки»
  • «ноутбуки санкт-петербург»
  • «ноутбуки, санкт-петербург»
  • «санкт петербург ноутбуки»
  • «санкт петербург, ноутбуки»
  • «ноутбуки санкт петербург»
  • «ноутбуки, санкт петербург»

Но для WordStat это один и тот же запрос. Нет источника, с помощью которого можно определить частотность этих запросов. Однако, используя поисковые подсказки, можно отсеять часть запросов с неправильным порядком слов, правда, количественную оценку частотности получить невозможно. Также мы никак не сможем получить информацию по знакам препинания.

Предположим, что для всех запросов и их вариаций, нам все-таки удалось абсолютно точно рассчитать число показов. Сможем ли мы точно определить трафик, зная позиции сайта по ним? Нет! Ведь, мы не знаем CTR сниппета, который может варьироваться в довольно большом диапазоне.

Более того, поскольку алгоритмы поисковых систем стали в разы сложнее, мы не можем предсказать, будет ли страница двигаться по запросу или нет.

Почему традиционный подход хорошо работал раньше:

  • Перед оптимизатором стояла задача добиться определенных позиций по нескольким запросам. Привлечение целевого трафика на сайт было побочной задачей, по которой результат работы не оценивался
  • СЯ были меньше, и оптимизатор мог потратить время на анализ каждого запроса и с высокой точностью оценить необходимые ресурсы для его продвижения
  • Поисковые системы были проще и поэтому предсказуемыми
  • Другими словами, традиционный подход хорошо работал, когда продвижение было ориентировано на позиции, а не на трафик. Сегодня, когда у нас поменялась цель самого продвижения, значительно возросло СЯ и появилось больше конкурентов, почему бы не поискать новые подходы?

Эмпирический подход

Есть два метода исследований: теоретический и эмпирический. Теоретический метод использует логические заключения, эмпирический — результаты экспериментов. Например, соцопрос — это эмпирическое исследование. Решение задачи по физики — теоретическое.

В науке и инженерном деле практически везде, где это возможно, предпочитают использовать эмпирический метод или подтверждать результаты теоретического исследования эмпирически.

Теоретический метод пытается предсказать что-то, основываясь на каких-то правилах, законах или логических заключениях. Эмпирический метод трактует результаты экспериментов. Описанный ранее метод был теоретическим: мы, основываясь на простых умозаключениях и на несвязанной с нашим сайтом статистике (WordStat), пытались оценить конкурентность и/или трафик, который мы можем получить по каждому из запросов.

Несмотря на сложное название, эмпирический метод в разы проще традиционного. Он очень хорошо автоматизируется и не парсит никакие внешние источники. Некоторые элементы этого метода уже давно использует ряд вебмастеров.

Смысл этого подхода в том, что мы продвигаем запросы, по которым на сайт приходят пользователи. Причем, чем больше пользователей к нам приходят по конкретному запросу, тем больше ресурсов мы тратим на его продвижение.

Чтобы понять, как это действует, нужно рассмотреть простой пример.

У нас есть сайт и три запроса:

  • По первому запросу сайт находится на второй странице выдачи и по нему идут переходы. Мы закупаемся ссылками по этому запросу
  • По второму запросу мы уже давно на первой позиции, но почему-то переходов по нему почти нет. Мы снимаем все ссылки по этому запросу
  • Есть третий запрос. По нему сайт находится на 105 позиции уже три месяца и почему-то не растет, естественно, переходов по тоже нему нет. Мы снимаем ссылки по этому запросу

Через два месяца:

  • По первому запросу мы выходим в Топ-3 выдачи поисковиков, что увеличивает трафик в несколько раз
  • По второму и третьему вылетаем из выдачи, но на трафике это не сказывается, поскольку по ним переходов все равно не было
  • Ссылочный бюджет остался на том же уровне, поскольку по 2 и 3 запросу мы убрали ссылки и на эти деньги купили ссылок для первого запроса
  • В итоге, мы в несколько раз увеличили трафик при том же бюджете
  • Самая простая реализация этого метода: импортировать данные о переходах из Google Analitics или из статистики LiveInternet и закупать ссылки пропорционально числу переходов
  • Однако кроме покупных ссылок в нашем распоряжении есть и другие ресурсы, например, внутреннее ссылочное или перераспределение веса на страницах сайта, альты картинок и прочее.

Существуют и программы для работы по этому методу. Например, TrafficWeb, который парсит Google Analytics и статистику LiveInternet. По этим данным можно формировать проект для SAPE и ссылочных агрегаторов. Но есть и полностью автоматические решения, например, HTracer, который не только создает проект для SAPE, но еще и занимается внутренней оптимизацией сайта. Некоторые другие автоматические системы внутренней оптимизации (например, скрипт Хортицы) также используют элементы эмпирического продвижения, расширяя СЯ благодаря переходам на сайт с поисковиков.

Эмпирический подход составления СЯ тоже не идеален, но он лишен всех вышеописанных недостатков:

  • Здесь мы имеем полную картину для запросов: словоформы, порядок слов (в некоторых системах статистики еще и знаки препинания, и регистр букв)
  • Нет результатов SEO-прессинга
  • Кликабельность сниппета включена в число переходов
  • Мы продвигаем только те запросы, которые продвигаются

Описанный метод имеет и свои недостатки, которые легко исправить, немного усложнив его:

  • Например, сайта нет в выдаче по запросу «ноутбуки в москве», по этому запросу у нас нет переходов и, следовательно, у нас нет этого запроса в СЯ. Однако, если слова «ноутбуки в москве» встречаются на какой-то из страниц сайта, то почти наверняка, эта страница находится в выдаче какой-нибудь из поисковых систем по какому-либо из уточнений этого запроса (например, по запросу «купить ноутбуки в Москве»). Продвижение по этому подзапросу само по себе улучшит позиции и основного запроса, и по нему пойдут переходы. Если мы будет уточнять СЯ каждый месяц, то при следующем уточнении семантического ядра мы начнем продвигать и основной запрос в чистом виде. Через несколько итераций сайт по основному запросу войдет в ТОП выдачи, если это, конечно, возможно при доступных ресурсах.
  • Если запрос уже на первом месте, то эмпирический метод будет тратить ресурсы на его продвижение в существенно больших объемах, чем необходимо для его поддержания на первой позиции. Эту проблему можно решить отслеживанием позиций
  • Может появиться «левый» трафик. Например, на сайте, продающем ноутбуки, может появиться трафик по запросу «драйвера для ноутбуков». Однако он появится только в том случае, если на странице есть слово «драйвера». Но даже в этом случае общий процент такого трафика будет незначительным, ведь пользователи читают, что в сниппетах написано. Более того, процент совершено «непродающих» уточнений «продающих» запросов незначительный
  • Поскольку конкуренция в информационных запросах меньше, чем в коммерческих, эмпирическое СЯ будет содержать в основном информационные запросы, что снизит показатель конверсии для интернет-магазинов. Однако мы можем увеличить вес запросов, содержащих слова «купить», «цены» и подобные. Также можно через Google Analitics отслеживать конверсии и придавать высококонвертируемым запросам больший вес. В принципе, нет ничего страшного в том, что мы привлечем трафик по информационным запросам — с них ведь тоже идут конверсии.

С другой стороны у этого подхода есть и реальные недостатки:

  • На новом сайте этим подходом невозможно воспользоваться. В этом случае можно использовать традиционный подход как первичное приближение
  • Увеличивается время продвижения. Эмпирический метод уже через месяц приносит первые плоды. Однако, чтобы СЯ стало более или менее оптимальным нужно около полугода
  • Этот метод не годится для продвижения по высококонкурентным запросам, он их будет обходить стороной

Однако, у ЭМ есть и свои неявные плюсы:

  • «Эмпирика» хорошо «партизанит». Если у вас бюджет в разы ниже, чем у конкурентов, то этот метод оптимально его распределит, отсеяв запросы, которые при таком бюджете продвигать нерационально или невозможно. «Увидев» хороший слабоконкурентный запрос, он быстро его возьмет в его оборот
  • По этой же причине эмпирический метод намного лучше традиционного распределяет внутренние ресурсы сайта, поскольку их явно не хватит, чтобы продвинуться по всем запросам в большинстве тематик
  • ЭМ может найти запросы, которые вы упустите при создании СЯ традиционным методом
  • ЭМ не рискует ресурсами, пытаясь наобум продвинуть запрос. Он итерационно увеличивает ресурсы по мере увеличения трафика. Если трафик перестал увеличиваться, то он перестает увеличивать ресурсы
  • СЯ можно составить полностью автоматически, не требуя от пользователя никакого участия

Но ничто не мешает пользоваться этими методами одновременно, учитывая слабые и сильные стороны каждого из них.


Есть о чем рассказать? Тогда присылайте свои материалы в редакцию.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Поделиться 
Поделиться дискуссией:
Отправить отзыв
  • Слава
    больше года назад
    Использую TrafficWeb и голову, по данной методике поднял трафик на сайт в 1.5 раза.  При этом я подкоректировал 2-3 запроса, а какой я поучу трафик если пройдусь оптимизацией по всем запросам?
    -
    0
    +
    Ответить
    Поделиться
  • Гость
    больше года назад
    Многие тут говорят - да ничего нового - Боже как Вы постарели :)
    Хотя я не новичок , но думаю для многих этот простой обзор даст понятие о том что такое СЯ и какими способами пользоваться для его составления и продвижения сайта  и чем можно воспользоваться.
    -
    0
    +
    Ответить
    Поделиться
  • Александр
    больше года назад
    В принципе все верно ничего нового вот если бы была описана конкретная цель составления структуры сайта, то тогда можно было бы поспорить по семантическому ядру. А так опять общий обзор того, что да как. Ресурсу seonews.ru желаю удачи и хорошего трафика. С Уважением! SAGATA Club.ru
    -
    0
    +
    Ответить
    Поделиться
  • TOP-index
    больше года назад
    "Перед оптимизатором стояла задача добиться определенных позиций по нескольким запросам. Привлечение целевого трафика на сайт было побочной задачей, по которой результат работы не оценивался." Да, вот чисто в интересах спортивных и научно-познавательных тратили деньги на вывод запроса. А просто так - чтобы конкуренты повесились от зависти.
    -
    0
    +
    Ответить
    Поделиться
  • jump
    больше года назад
    отличная аналитическая статья
    -
    0
    +
    Ответить
    Поделиться
  • flint10
    больше года назад
    Взял Htracer, установил буквально за 5 минут, очень доволен покупкой, суппорт отзывчивый,  помог советами. Вообщем советую товарищи
    -
    0
    +
    Ответить
    Поделиться
  • flint10
    больше года назад
    Взял Htracer, установил буквально за 5 минут, очень доволен покупкой, суппорт отзывчивый,  помог советами. Вообщем советую товарищи
    -
    0
    +
    Ответить
    Поделиться
  • Юрий
    больше года назад
    Странно привели 2 программы, трафвеб и хтрацер, которые по своей сути не дотягивают до кей коллектора, в которой в разы больше функций, при том что на серченжинсе http://forum.searchengines.ru/showthread.php?t=614216 начали именно в этой программы.

    у Хортицы не элементы эмпирического - там все отточено и традиционно

    а так в теме на серченжинсе разнесли в пух и прах эту тему, за...
    Странно привели 2 программы, трафвеб и хтрацер, которые по своей сути не дотягивают до кей коллектора, в которой в разы больше функций, при том что на серченжинсе http://forum.searchengines.ru/showthread.php?t=614216 начали именно в этой программы.

    у Хортицы не элементы эмпирического - там все отточено и традиционно

    а так в теме на серченжинсе разнесли в пух и прах эту тему, зачем ее на сеонюз выкатили?
    -
    0
    +
    Ответить
    Поделиться
  • Hkey
    больше года назад
    Во первых, кейколлектор сайт не оптимизирует в отличии от HTracer.
    Во вторых, функций в кейколлектор действительно много, но каждая функция тратит время на парсинг внешних источников. Я рассказываю как решить аналогичную задачу с другой стороны без парсинга всего подряд и более точно. Число переходов на сайт говорит о намного большем, чем парсинг всех внешних источников.
    В третьих, начал ту тему я не с кейколлектор а с ее видео-презентации.
    В четвертых что-то ни пуха ни прах...
    Во первых, кейколлектор сайт не оптимизирует в отличии от HTracer.
    Во вторых, функций в кейколлектор действительно много, но каждая функция тратит время на парсинг внешних источников. Я рассказываю как решить аналогичную задачу с другой стороны без парсинга всего подряд и более точно. Число переходов на сайт говорит о намного большем, чем парсинг всех внешних источников.
    В третьих, начал ту тему я не с кейколлектор а с ее видео-презентации.
    В четвертых что-то ни пуха ни праха не заметил
    В пятых прочитайте описание скрипты Хортицы

    P.S. Ни одного довода кроме вашего ИМХО в вашем комменте нет.
    -
    0
    +
    Ответить
    Поделиться
  • Юрий
    больше года назад
    речь то не про оптимизацию, а тут ведь статья "Методы построения семантического ядра" и не про кей каллектор речь тоже

    а где методы? ну скрипт прорекламировали свой, хортицы, мертвый трафиквеп, где методы то?
    -
    0
    +
    Ответить
    Поделиться
  • Hkey
    больше года назад
    Про скрипты я писал в одном абзаце из 30 или 40. Все остальное методы. У вас что в браузере не отображается основной текст или это у вас такой фильтр восприятия?
    -
    0
    +
    Ответить
    Поделиться
  • Юрий
    больше года назад
    WordStat  и рамблер - это все источники и "!" это весь метод? пшш..
    -
    0
    +
    Ответить
    Поделиться
  • Бонифаций Михаил
    25
    комментариев
    0
    читателей
    Бонифаций Михаил
    больше года назад
    вода- водиииииищщщщща...   статьей даж стыдно назвать, так писюлька...
    -
    0
    +
    Ответить
    Поделиться
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Как построить качественную ссылочную массу сайта
Айрат Рахимзянов
38
комментариев
0
читателей
Полный профиль
Айрат Рахимзянов - Спасибо Кирилл. Сейчас восстановилась работа сервиса: take.ms/ttXrw
Анализ ссылок: сравнение многофункциональных платформ по размеру их баз
Андрей Ольшевский - Очень неточная статистика, объясню почему. Довольно часто делаю анализ сайтов на качество и объём ссылочной массы. Всегда делаю выгрузку из трех источников – Вебмастера Яндекса, сервиса Мегаиндекс, сервиса Линкпад. Потом с помощи алгоритмов и функции Excel отсеиваются много дублей, битых ссылок, несуществующих урл и тп. Как показала практика, вебмастера Яндекса вполне достаточно, там вся информация и она самая актуальная, в других сервисах куча мусора, а нового, чтоб было найдено и проиндексировано ПС - очень мало. Поэтому мирятся количеством в данном анализе не профессионально.
Как создать интернет-магазин: сколько стоит открытие?
Пришел посмеяться
1
комментарий
0
читателей
Полный профиль
Пришел посмеяться - Я просто посмеюсь :D Даже не хочу ничего особо говорить :D Смех, а не статья.
ТОП-10 автоматизированных сервисов контекстной рекламы
Гость - Действительно, очень плохая статья. А у редактора Блондинки видимо слишком много свободного времени.
Кому и зачем нужен маркетплейс от Яндекса
Дарья Калинская
213
комментария
0
читателей
Полный профиль
Дарья Калинская - Максим, спасибо, рада, что статья оказалась полезной )
Конкурс: угадай победителя рейтинга «Известность бренда SEO-компаний»
Андрей
1
комментарий
0
читателей
Полный профиль
Андрей - Оптимизм Дэмис Кокос Ашманов и Партнеры Раш эдженси
Инструкция по применению: обзор сервиса обратного звонка Callbackhunter
Полина Ковальчук
1
комментарий
0
читателей
Полный профиль
Полина Ковальчук - Возможно, но не советую экономить на этом сервисе, функционал то тоже круче, чем у аналогов. Вы создаете сайт для получения денег и чем качественнее Вы выстроите продвижение, тем больше лидов Вы получите!
Тест: Какой ты интернет-маркетолог?
Петр - Мда уж, есть ряд очень и очень субъективных вопросов, например с картинками и ctr или с несколькими вариантами ответа, когда из 5 пунктов надо выбрать 4, что несерьезно. Поэтому, как минимум, к этому тесту нельзя относиться серьезно. Его надо очень серьезно дотягивать, а не вываливать отсебятину.
Чек-лист: SEO для B2B-бизнеса
Антон Зозуля
8
комментариев
0
читателей
Полный профиль
Антон Зозуля - Ваша цель вывести страницу, на которой будет только ваш товар (обычно это фильтр бренд/производитель в нужном каталоге) по СЧ запросам в ТОП. Например, вы продаете "велосипеды Елочка". В каталоге дилера велосипеды, вы выбираете Бренд - "Елочка" и должны получить страницу "велосипеды Елочка". Она должна быть на уникальном урл, иметь уникальные метатеги, лучше, чтобы был SEO-текст. После этого ваша задача получить на нее трафик по запросам: идеально: купить велосипед, цена велосипед хуже: велосипед дешево, китайский велосипед еще хуже (меньше трафика и ниже конверсия, но они есть): велосипед + [регион], велосипед + [фильтр другой]. Тут трудно без прямого влияния на содержимое страницы (метатеги и текст). ПС бренд елочка выдуман. :)
SEO-тренды на 2017 год: мнение специалистов
Olga Inventor
1
комментарий
0
читателей
Полный профиль
Olga Inventor - Хорошая статья. То, что SEO - антитренд, уже давно говорят. Нужен комплексный подход.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
285
Комментариев
262
Комментариев
213
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
123
Комментариев
97
Комментариев
97
Комментариев
95
Комментариев
80
Комментариев
71
Комментариев
67
Комментариев
60
Комментариев
55
Комментариев
52
Комментариев
50
Комментариев
45
Комментариев
44

Отправьте отзыв!
Отправьте отзыв!