«Переоптимизация» Яндекса, или как подружиться с новым фильтром. Что нужно знать о плотности ключевых слов?

Россия+7 (495) 960-65-87
Шрифт:
0 1864

После анонса введения нового переспам-фильтра Яндекса многие вебмастера в отчаянии схватились за головы, а копирайтеры с упоением вздохнули свободно: «Долой ТЗ, перенасыщенные грудой ключевиков, да здравствуют человекоподобные тексты!» Для пущего буйства страстей Яндекс даже открыл доступ к своей тестовой площадке (http://buki.yandex.ru), мол, полюбуйтесь, сейчас вы на первом месте, а после введения нового алгоритма... Ну, ну? И где вы? Ага! Нету!

Словом, одних анонс расстроил, других — обрадовал, а третьих — оставил в замешательстве, ведь, по сути, переоптимизация — штука весьма и весьма условная. Когда шумиха постепенно улеглась, и перед сеошниками, и перед копирайтерами остро встал один вопрос: как писать тексты дальше? Скупую рекомендацию Яндекса «Пишите тексты для людей» никто в расчет, ясное дело, не брал, потому что в топе и без того тесно, а текст для человека написать — не проблема.

В связи с нововведением в Сети появилась масса информации, различного рода экспериментов, советов, рекомендаций, поэтому разводить общую демагогию, о которой и без того много написано, сейчас смысла нет. В этой статье я поделюсь своими наблюдениями, на которые я обратил внимание при ведении собственного блога.

Особенности ведения блога и типы «заточенных» постов

Конечно, существует масса факторов, влияющих на позиции сайта: возраст, наличие внешних ссылок, частотность запроса и прочее, поэтому для пущей объективности удобнее всего сравнивать страницы сами с собой: до введения нового алгоритма и после.

У меня было некоторое количество страниц в топе по запросам до введения алгоритма. При проверке через «тестовый полигон» Яндекса, часть осталась на тех же позициях, что и была, часть спустилась вниз на несколько пунктов, а часть я упорно пытался найти в результатах выдачи, но так и не нашел.

Поскольку основная масса постов на блоге носит прикладной характер, я старался писать их просто, доступно и понятно. Некоторые целевые посты я «затачивал» под конкретные запросы, чтобы привлечь поисковый трафик. Плотность ключевых слов составляла порядка 2-5%. Проанализировав такие статьи, я выделил из них несколько типов.

Тип постов № 1

Статьи с равномерной повышенной (~4-5%) плотностью распределения ключевых слов. В таких статьях я старался использовать максимум прямых вхождений и распределял их равномерно по всему объему материала. Стоит отметить, что прямые вхождения я старался использовать не только в основных пластах текста, но и в подзаголовках.

Результат: около 80% постов «выпали», остальные сместились вниз в результатах выдачи.

Тип постов № 2

Этот тип материалов содержал умеренное количество ключевых слов (порядка 1,2-1,5%) и разнообразие словоформ в самом тексте (в отличие от материалов первого типа, в которых плотность была в разы большей, и словоформ практически не было — только прямые вхождения).

В обязательном порядке присутствовали прямые вхождения в такие элементы страницы как:

  1. Тайтл
  2. Заголовок
  3. Подзаголовки

Результат: материалы, в основной своей массе, остались на прежних позициях.

Тип постов № 3

Этот тип статей, по сути, представляет собой сочетание предыдущих двух типов: обилие словоформ, равномерное распределение ключевых слов, плотность прямых вхождений — около 2–2,5%, прямые вхождения в тайтле, заголовке и подзаголовках.

Результат: часть постов осталась на своих позициях, часть выпала, но затем через три-четыре недели большая часть выпавших вернулась на свои места.

Тип постов № 4

Посты с неравномерным наполнением ключевыми словами, которые, как правило, «затачивались» сразу под несколько запросов. Каждому запросу соответствовала заданная часть текста, которая наполнялась 5–7% ключевиков (относительно объема текстовой части, а не статьи в целом).

Результат: такие посты вылетели из поиска со свистом и, в отличие от третьего типа постов, не возвращались.

Для наглядности динамика изменений для различных типов постов представлена на графике.

Выводы

Таким образом, из результатов эксперимента можно сделать два общих вывода о том, что алгоритм очень негативно относится к:

  1. Переспаму по всему тексту в целом
  2. Неестественному переспаму по отдельным фрагментам текста

В контексте SEO можно сделать следующие выводы:

  1. Сложно продвигать несколько запросов на страницу, особенно если эти запросы между собой никак не пересекаются.
  2. Заметно сузилось значение текстовых факторов ранжирования и, как результат, пространство для экспериментов на текстовых параметрах: писать приходится с учетом восприятия пользователей: в противном случае на весь сайт могут быть наложены ограничения фильтра.
  3. Требуется менять подход к созданию SEO-текста: снизить плотность ключевых слов, уделить должное внимание их равномерному (естественному) распределению, cделать текст более читабельным.

Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
    ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
    SEOnews и Serpstat запускают конкурс для интернет-маркетологов
    Marina Lagutina
    1
    комментарий
    0
    читателей
    Полный профиль
    Marina Lagutina - Добрый день! Видимо я из тех, кто пытается последней вскочить в уходящий поезд. Ночью написала статью на тему "обзор инструментов контент-маркетинга". Своего блога нет. Отправила вам не мейл. Я еще могу у вас разместиться или искать, кто возьмет статью к себе в блог?
    «Я оптимизировал сайт, а он не в ТОП! Что делать?»
    Павел Горбунов
    8
    комментариев
    0
    читателей
    Полный профиль
    Павел Горбунов - Как можно в инструменте tools.pixelplus.ru/tools/text-natural сравнить текст со страницы конкурента и со своей страницы? Я вижу возможность только для проверки одного урла.
    Монетизация сайта. Как, когда, сколько?
    Гость2
    1
    комментарий
    0
    читателей
    Полный профиль
    Гость2 - Руслан! Спасибо за ваш сервис и за данную статью в частности! С апреля являюсь вашим пользователем - очень доволен как сервисом, так и уровнем заработка! Еще раз спасибо, удачи вашему проекту!
    Влияние HTTPS на ранжирование региональных поддоменов в Яндексе
    Екатерина Иванова
    1
    комментарий
    0
    читателей
    Полный профиль
    Екатерина Иванова - Посмотрите на сколько упал трафик и на сколько потом вырос:упал на 10-20% на 1 месяц, а вырос в итоге в 5 раз. Одним мартовским трафиком всё падение перекрыли. Или можно ждать Яндекс неопределённое количество времени со стартовым уровнем трафика. Упущенные возможности и всё-такое.
    Мир глазами поисковых систем
    Александр Рунов
    7
    комментариев
    0
    читателей
    Полный профиль
    Александр Рунов - Какой регион, если не секрет? В Мск, в ряде ВК тематик (в тех же "окнах" или "колесах"), без работы с внешними факторами по ВЧ запросам в ТОП не выплывешь. Хотя в большинстве направлений вполне реально.
    Google.ru внесли в реестр запрещенных сайтов
    Гость
    1
    комментарий
    0
    читателей
    Полный профиль
    Гость - Гон, все работает и будет работать. Да и пусть банят, будет как с рутрекером.
    День рождения SEOnews: 12 лет в эфире!
    Анна Макарова
    308
    комментариев
    0
    читателей
    Полный профиль
    Анна Макарова - Ура )
    7 причин не работать на биржах копирайтинга
    Dasha Shkaruba
    6
    комментариев
    0
    читателей
    Полный профиль
    Dasha Shkaruba - Спасибо за мнение! Кстати, на бирже главреда прием анкет закрыт
    Инфографика: самые распространенные SEO-ошибки Рунета
    Alex Wise
    3
    комментария
    0
    читателей
    Полный профиль
    Alex Wise - Спасибо, Женя, за рекомендацию! :) Андрей, чтобы понять, какой программой пользоваться, нужно сделать несколько вещей: 1. Попробовать обе: у нас в Netpeak Spider бесплатный триал на 14 дней с полным функционало; у SFSS до 500 URL всегда бесплатно, но с ограниченным функционалом. 2. Понять свой стиль работы – если вы любите полный контроль и из-за этого более высокую скорость пробивки, тогда выбирайте Netpeak Spider. Если для вас не так важна скорость и количество пробитых URL, то можно остановиться на SFSS. 3. Определиться с нужными функциями: их в обоих программах очень много и как в Netpeak Spider есть уникальные, так и в SFSS есть свои уникальные. Мы всегда ориентируемся на то, чтобы быстро и чётко показать ошибки – для этого у нас вся таблица красится в соответствующие цвета. Думайте!) И, если что, обращайтесь с вопросами – мы будем рады помочь!)
    Конкурс: угадайте пятерку лидеров рейтинга «SEO глазами клиентов 2017»
    Оля
    1
    комментарий
    0
    читателей
    Полный профиль
    Оля - 1 Ingate 2 Wezom 3 Bynjg vtlbf 4 seo energy 5 директ лайн
    ТОП КОММЕНТАТОРОВ
    Комментариев
    910
    Комментариев
    834
    Комментариев
    554
    Комментариев
    540
    Комментариев
    483
    Комментариев
    373
    Комментариев
    308
    Комментариев
    262
    Комментариев
    224
    Комментариев
    171
    Комментариев
    156
    Комментариев
    137
    Комментариев
    121
    Комментариев
    97
    Комментариев
    97
    Комментариев
    95
    Комментариев
    80
    Комментариев
    77
    Комментариев
    67
    Комментариев
    60
    Комментариев
    59
    Комментариев
    55
    Комментариев
    53
    Комментариев
    52
    Комментариев
    46

    Отправьте отзыв!
    Отправьте отзыв!