×
Россия +7 (909) 261-97-71

Как использовать Python для LSI-копирайтинга

Россия +7 (909) 261-97-71
Шрифт:
16 25358
Подпишитесь на нас в Telegram

Вы, скорее всего, слышали об LSI (скрытом семантическом индексировании).

Этот термин последнее время довольно популярен в SEO-индустрии. Кто-то утверждает, что LSI-копирайтинг является залогом попадания сайта в ТОП, кто-то считает это бесполезной тратой времени и ресурсов.

Давайте немного разберемся, что же такое LSI и как оно связано с SEO?

Если совсем коротко и грубо, это один из математических подходов к анализу текстов, разработанный в конце 1980-х годов для повышения точности извлечения информации. По сути, он находит скрытые связи между словами, чтобы улучшить понимание информации.

В теории, если поисковик может понять контент, он будет корректно его индексировать и ранжировать по целевым запросам. Использование синонимов и тематических слов также теоретически может усилить значимость общей части контента, что должно быть хорошо для SEO, верно? К огромному сожалению, нет прямых доказательств, подтверждающих это.

LSI-копирайтинг – довольно успешный маркетинговый ход. Теперь мы пишем не просто SEO-тексты, а LSI-тексты. Окей. Суть та же. Мы просто добавим синонимов.

Однако не все так плохо. Подобные анализы текстов позволяют сделать достаточно выводов, чтобы создать действительно полезный контент.

Благодаря тем замечательным людям, которые создают библиотеки, используемые в различных языках программирования, мы можем довольно быстро строить терм-документные матрицы, высчитывать TF-IDF и прочее. Если кому-то интересно, пишите в комментариях, я опишу, как это можно сделать на том же Python.

В этой статье не будем уходить в столь глубокий анализ. Относительно понятную картину контента, который ранжируется поисковиками, дает анализ N-грамм, встречающихся в текстах сайтов ТОПа и запросов Вордстат.

Ниже представлен код, написанный на Python 3.0.

Собственно, начнем с подключения того, что давно сделали за нас – импортируем библиотеки, которые понадобятся для работы:


На мой взгляд, pymorphy2 – пока лучшее, что придумано для работы с русскоязычными текстами. Именно эта библиотека дает наиболее точные результаты при работе с словоформами. Именно поэтому скрипт написан на Python.

После импорта вводим ключевик, для которого будем искать тематические слова и словосочетания. Возьмем для примера «очки виртуальной реальности».


Первое, что делаем – получаем данные Вордстат. Для этого нам нужно зарегистрировать свое приложение для API Яндекс.Директа и получить токен. С Директом все несколько сложнее, чем с другими API, т.к. необходимо подавать заявку на доступ приложения и ждать, пока ее подтвердят на стороне Яндекса.

Прописываем полученный токен:


Создаем запрос на формирование отчета к API и получаем в ответе id нашего отчета:


Дадим Яндексу время на формирование отчета:


В идеале нужно отправлять еще один запрос, ответом на который будет статус отчета, но, как показывает практика, 10 секунд вполне достаточно, чтобы сформировать этот отчет.

Теперь нам нужно получить сам отчет. Подставляем в свойство param наш id и обращаемся к API.


В итоге нам нужно сформировать два датафрейма, где один отвечает за столбец в Вордстат «Что искали со словом…» (SearchedWith), а второй – за похожие запросы (SearchedAlso).


API Директа отдает нам всего 300 запросов, то есть 6 страниц в разделе SearchedWith, то есть нужно учитывать, что это лишь часть запросов.

Теперь переходим к основной задаче – небольшому анализу текстов.

Для этого нам необходимо обратиться к XML выдаче Яндекса. После всех необходимых настроек переходим в раздел «Тест» и выставляем следующие параметры.

LSI и python

Чтобы сильно не перегружать систему, возьмем для анализа ТОП 50 вместо максимально доступного ТОП 100.

Под этим блоком формируется URL самой XML выдачи. Копируем его и подставляем в него наш декодированный запрос.


Прописываем путь к файлу, в которые запишутся все URL ТОП 50 выдачи по нашему запросу. Такой способ вывода результатов позволит в дальнейшем как иметь список URL, так и удалять из списка те, которые отдают ошибку при попытке достать оттуда информацию. Как правило, это случается крайне редко, но имеет место быть.


Отправляем запрос и парсим XML выдачу:


Прописываем путь к файлу, куда запишем весь текст, полученный при парсинге страниц:


Парсим полученные URL и записываем контент тега p результаты в один файл. Тут нужна небольшая, но важная оговорка, что далеко не на всех сайтах текст оформляется тегами p, а некоторые в эти теги добавляют совершенно левую информацию. Но при анализе довольно большого объема текстов хватает информации, которую мы получаем таким образом. В конце концов перед нами не стоит задача создания точной терм-документной матрицы. Нам лишь нужно найти наиболее часто употребляемые N-граммы в текстах ТОП 50.


Приступаем к анализу полученных данных. Указываем файл, куда запишем результаты, загружаем данные парсинга и список стоп-слов, которые мы хотим исключить из анализа N-грамм (предлоги, союзы, технические и коммерческие слова и т.д.)


А дальше немного магии: приводим все слова к их исходной форме, настраиваем CountVectorizer на подсчет N-грамм с количеством слов от 2 до 4 и записываем результат в файл.


Все, что нужно дальше, – записать все результаты в один Excel-файл:


На первом листе выводим подсчет N-грамм, используемых в контенте сайтов:

LSI и python

Быстрый взгляд на первые 100 N-грамм позволяет нам отобрать следующие: «угол» «обзор», «oculus rift», «шлем виртуальный реальность», «vr box», «gear vr», «диагональ дисплей», «playstation vr», «vr очки», «виртуальный мир», «3d очки», «пульт управление», «100 градусов», «полный погружение», «совместимость ос android», «датчик приближение», «линза устройства», «vr гарнитур», «дополнить реальности». Это дает понять, что в тексте стоит затронуть такие понятия, как «угол обзора», «полное погружение», «линзы», «дополненная реальность», «датчик приближения», рассмотреть вопросы совместимости, использовать такие синонимы, как «шлем виртуальной реальности», «vr» и т.д.

На втором листе – данные Вордстат по похожим запросам (по сути, N-Граммы отобразили схожую картину, но порой тут можно встретить то, что в текстах замечено не было):

LSI и python

На третьем, собственно, 300 запросов из первого столбца Вордстат:

LSI и python

Таким образом, мы получаем небольшую памятку для копирайтера или для самих себя, которая упростит составление ТЗ на написание текста по заданной тематике и даст понятия, которые необходимо раскрыть при написании контента.

Подводя итоги, хочется сказать: чтобы не попасть в это самое «очко виртуальной реальности», важно понимать, что наличие LSI-запросов в тексте не является гарантом нахождения статьи в ТОПе. Нужно изучить тексты на хотя бы нескольких сайтах самостоятельно, помнить про основы оптимизации любой статьи, грамотно ее оформлять, размечать и проводить еще много-много работы для того, чтобы создавать понятный и полезный контент как для поисковика, так и для пользователя.

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Evgeny Montana
    6
    комментариев
    0
    читателей
    Evgeny Montana
    больше года назад
    words_nf = [' '.join([m.parse(word)[0].normal_form for word in x.split()]) for x in texts]  - ругается на texts "Unresolved reference 'texts'"
    -
    0
    +
    Ответить
    • Evgeny Montana
      6
      комментариев
      0
      читателей
      Evgeny Montana
      больше года назад
      NameError: name 'texts' is not defined
      -
      0
      +
      Ответить
      • Иван Бурмистров
        7
        комментариев
        0
        читателей
        Иван Бурмистров
        Evgeny Montana
        больше года назад
        Тут маленький вопрос к публикации:
        После абзаца "Приступаем к анализу полученных данных..." Вставили предыдущую часть кода, вместо того, что было в материалах.

        В общем, в статье пропущена эта часть кода:
        sys.stdout.close()
        sys.stdout = open("C:\\Users\\UserName\\Documents\\result.txt", "w", encoding="utf-8")
        texts = [z.rstrip() for z in open('C:\\Users\\UserName\\Documents\\out.txt'...
        Тут маленький вопрос к публикации:
        После абзаца "Приступаем к анализу полученных данных..." Вставили предыдущую часть кода, вместо того, что было в материалах.

        В общем, в статье пропущена эта часть кода:
        sys.stdout.close()
        sys.stdout = open("C:\\Users\\UserName\\Documents\\result.txt", "w", encoding="utf-8")
        texts = [z.rstrip() for z in open('C:\\Users\\UserName\\Documents\\out.txt', encoding='utf-8')]
        stop_words = [z.rstrip() for z in open('C:\\Users\\UserName\\Documents\\stop_words.txt', encoding='utf-8')]


        Попробуйте после

        for pp in soup.select("p"):
                print(pp.text)
        -
        0
        +
        Ответить
        • Evgeny Montana
          6
          комментариев
          0
          читателей
          Evgeny Montana
          Иван Бурмистров
          больше года назад
          да вроде дальше пошел по стеку, но вот ошибка вывалилась.

          Traceback (most recent call last):
            File "C:/Users/Evgen/PycharmProjects/Montana/test/LSI.py", line 87, in
              ngrams = cvn.fit_transform(words_nf)
            File "D:\Upload\Anaconda3\lib\site-packages\sklearn\feature_extraction\text.py", line 869, in fit_transform
              self.fixed_vocabulary_)
           &n...
          да вроде дальше пошел по стеку, но вот ошибка вывалилась.

          Traceback (most recent call last):
            File "C:/Users/Evgen/PycharmProjects/Montana/test/LSI.py", line 87, in
              ngrams = cvn.fit_transform(words_nf)
            File "D:\Upload\Anaconda3\lib\site-packages\sklearn\feature_extraction\text.py", line 869, in fit_transform
              self.fixed_vocabulary_)
            File "D:\Upload\Anaconda3\lib\site-packages\sklearn\feature_extraction\text.py", line 811, in _count_vocab
              raise ValueError("empty vocabulary; perhaps the documents only"
          ValueError: empty vocabulary; perhaps the documents only contain stop words
          -
          0
          +
          Ответить
        • Дарья Калинская
          249
          комментариев
          0
          читателей
          Иван, Евгений, спасибо! Исправили.
          -
          0
          +
          Ответить
          • Evgeny Montana
            6
            комментариев
            0
            читателей
            Evgeny Montana
            Дарья Калинская
            больше года назад
            посмотрите выше вопрос
            -
            0
            +
            Ответить
            • Иван Бурмистров
              7
              комментариев
              0
              читателей
              Иван Бурмистров
              Evgeny Montana
              больше года назад
              Проверьте, пожалуйста, файл, в который были записаны результаты. Совпадает ли путь, приписанный к файлу, в который выгружаются результаты парсинга и файл, из которого достаются данные в переменную texts
              -
              0
              +
              Ответить
              • Evgeny Montana
                6
                комментариев
                0
                читателей
                Evgeny Montana
                Иван Бурмистров
                больше года назад
                спасибо помогло, только я еще убрал в пути папку Texts_Analyzer так как она не совпадает с url_list файлом который по пути документс в другой строке, выше. Можно ли также на английском выдачу парсить?
                -
                0
                +
                Ответить
                • Иван Бурмистров
                  7
                  комментариев
                  0
                  читателей
                  Иван Бурмистров
                  Evgeny Montana
                  больше года назад
                  В принципе, промежуточные результаты можно не записывать в отдельные файлы. Можно пользоваться функцией append.
                  С английским есть два момента. Если парсить гугл, то не через xml, т.к. аналога яндексовского у него нет. Но самих способов парсинга выдачи описано довольно много. Второе - pymorphy для обработки английского текста не подходит. Для этого нужно воспользоваться, например, библиотекой NLTK.
                  -
                  1
                  +
                  Ответить
  • Павел Горбунов
    6
    комментариев
    0
    читателей
    Павел Горбунов
    больше года назад
    Есть ли какие-то принципиальные отличия работы этого скрипта от того, что делает "Акварель"?
    -
    0
    +
    Ответить
    • Иван Бурмистров
      7
      комментариев
      0
      читателей
      Принципиальных нет, но результаты разные. Сравнивал по одинаковым запросам.
      Я, честно говоря, про Акварель узнал уже после написания скрипта.
      -
      0
      +
      Ответить
  • Boris Nikator
    2
    комментария
    0
    читателей
    Boris Nikator
    больше года назад
    Отличная статья, у самого есть скрипты Python для SEO задач=) Проблема только в теоретической части, здесь нет никакого "LSI", оно вообще для другого используется)

    LSI — Latent Semantic Indexing использует технологию SVD для построения 2х матриц, в обработке текстов, чаще всего, одна — с корпусом документов и топиками, другая с топиками и токенами (ключевыми словами). В данном скрипте эта технология не используется.

    Из полезного: sklearn так...
    Отличная статья, у самого есть скрипты Python для SEO задач=) Проблема только в теоретической части, здесь нет никакого "LSI", оно вообще для другого используется)

    LSI — Latent Semantic Indexing использует технологию SVD для построения 2х матриц, в обработке текстов, чаще всего, одна — с корпусом документов и топиками, другая с топиками и токенами (ключевыми словами). В данном скрипте эта технология не используется.

    Из полезного: sklearn также обладает возможностью делать TF-IDF анализ.
    -
    3
    +
    Ответить
  • afgna4uk
    1
    комментарий
    0
    читателей
    afgna4uk
    больше года назад
    Не получается импортировать библиотеки начиная с from sklearn.feature_extraction.text import CountVectorizer
    -
    0
    +
    Ответить
    • Иван Бурмистров
      7
      комментариев
      0
      читателей
      Иван Бурмистров
      afgna4uk
      больше года назад
      Попробуйте перед этим добавить import sklearn
      Есть sklearn в принципе не находит, то через pip install (!pip install)
      -
      0
      +
      Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Как мы увеличили число посетителей сайта на 89 000 человек и индекс качества на 30 единиц за 4 месяца
Никита Ширяев
4
комментария
0
читателей
Полный профиль
Никита Ширяев - Здравствуйте, 1. ТЗ на создание контента, это всего лишь одна из задач, которую мы делаем на проекте. 2. Получаемый текст обязательно проходит проверки на спам. 3. ТЗ на создание контента, это ориентир для авторов. 4. Как раз таки ТЗ помогает не переспамить в тексте, так как мы замеряем показатели ТОПа и ориентируемся на него. И опять приведу Вам скриншот, который подтверждает постоянный рост рейтинга домена. DR имеет сильную прогрессию.
Алексей Романенков (Rookee): как обеспечить проекту видимость в интернете и какими инструментами ее наращивать
Rookee
3
комментария
0
читателей
Полный профиль
Rookee - Добрый день. Взяли на заметку, спасибо. Чтобы не пропустить материал на тему репутационной стратегии от Алексея, следите за Rookee в соцсетях :)
Авторы на RUTUBE теперь могут загружать видео в формате серий
Наиль г.Пенза
4
комментария
0
читателей
Полный профиль
Наиль г.Пенза - Ну что вы принимаете мою заявку? Или удалиться с "тихой грустью". А моих фото пока нет,они у меня удалились с Галереи, когда покупал себе смартфон. На фото пока моя дочь,сам я лежу в каридологие, сами понимаете какая у меня будет фотография
Настоящий квест: как увеличили трафик на сайт сети компьютерных клубов в 19,5 раз, а число конверсий в 42,5 раза
Владлен
1
комментарий
0
читателей
Полный профиль
Владлен - Интересно, есть только вопрос по ссылкам, в каком диапазоне стоимость ссылки была, ведь судя по скринам за 5 месяцев было куплено 10 ссылок
В какой поисковой системе продвигать финансовый сайт: выводы исследования Sape
Sape
3
комментария
0
читателей
Полный профиль
Sape - Добрый день! Спасибо за вашу обратную связь. Да, действительно, метрика DA не обновляется последние три месяца из-за проблем с поставщиком данных. Мы уже работаем над этим, в ближайшее время исправим. На данный момент для отбора сайтов в системе доступны десятки других метрик, которые обновляются регулярно. Касательно цен — с ними всё в порядке. Если у вас есть вопросы относительно ценообразования, мы готовы на них ответить. Благодарим, что поделились мнением. Мы всегда рады конструктивному диалогу!
Как вырастить трафик из блога в 9,7 раз за год. Кейс
Сергей Шабуров
1
комментарий
0
читателей
Полный профиль
Сергей Шабуров - Константин, здравствуйте! Лид-формы у нас прямо в статьях, так что трафик идет с самих статей.
Матвей Северянин дает экспертный отзыв: 788 000 ₽ за месяц на продаже Telegram-каналов – реально
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Согласен с Матвеем. Сам покупаю- продаю Тг каналы на бирже : t.me/birga_prodagi_tg_kanalov - Биржа продажи ТГ каналов | Альянс-А
Зачем вам доверие поисковиков, как его укреплять и привлекать клиентов на сайт
Rookee
3
комментария
0
читателей
Полный профиль
Rookee - Рекомендуем задуматься как можно скорее, потому что даже только что созданный сайт чаще всего нуждается в оптимизации. Битые ссылки, лишние редиректы, низкая скорость загрузки - от всего этого нужно избавляться, чтобы сайт успешно продвигался в поиске и удерживал внимание пользователей. Тарифы на оптимизацию бывают разные, в Rookee базовая техническая оптимизация стоит 13 090, а в рамках Комплексного продвижения может обойтись дешевле или дороже в зависимости от потребностей сайта.
Роль SEO в повышении узнаваемости и авторитетности бренда
Тимур Мукба
4
комментария
0
читателей
Полный профиль
Тимур Мукба - Узнаваемость бренда — долгий процесс, который требует месяца и года планируемого SEO. Недостаточно того, что ваш сайт будет по определённому ключу или нескольких ключей виден посетителям сайта. Узнаваемость бренда - это, грубо говоря, грубая и местами жёсткое SEO, которая использует как белые, так и серые способы продвижения. Хотите, чтоб ваш продукт/лицо узнавалось по одной иконке? Используйте все инструменты продвижения!
Как применить методики зарубежного SEO в Рунете
SEO manager
1
комментарий
0
читателей
Полный профиль
SEO manager - Спасибо! Михаил, как всегда!
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
389
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
120
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!