Россия+7 (495) 960-65-87

Ликбез по SEO аналитике. Полезные сервисы

Россия+7 (495) 960-65-87
Шрифт:
12 5572

Мы постоянно имеем дело с информацией — запросы, показы, клики и т.д. и т.п. Многие оптимизаторы заимствуют метрики и не вникают в суть данных. Этот подход, безусловно, прост и быстр. Но при этом малоэффективен, поскольку пользоваться минимальным набором традиционных метрик — значит лишить себя кучи полезных выводов.

По сути, аналитика сводится к сбору и анализу данных. Здорово, если масштаб компании позволяет собирать данные решениями своей команды разработчиков. Если нет — вам наверняка будут интересны простые и доступные инструменты. Опишем некоторые из них:

OutWit — фантастически удобный плагин к FireFox для извлечения структурированных данных из веб-контента. Плагин умеет извлекать данные самостоятельно, либо по предопределенному шаблону. Можно использовать регулярные выражения и листать страницы. Например, вот результат парсинга страницы выдачи Яндекса по запросу «продвижение сайтов» с извлечением переколдовок:

Версия Outwit Pro позволяет создавать процессы и макросы и, однозначно, стоит 30 долларов, что за нее просят. Но и бесплатная Light-версия весьма полезна.

Google Analytics предоставляет много возможностей для повышения эффективности поискового продвижения. Самые очевидные применения:

  • Оценка стоимости конверсии в срезах по запросам и по источникам трафика позволяет сосредоточить усилия на действительно полезных запросах, отбросив конкурентные, но малоэффективные (достаточно штатных возможностей Google Analytics).
  • Выгрузка ключевых слов, по которым были зафиксированы переходы из органического поиска с дальнейшей проверкой частотностей этих запросов и текущих позиций сайта. Этот способ позволяет быстро выявить наилучшие точки приложения усилий оптимизатора. Для массовой обработки ключевых слов «на коленке» удобен Key Collector.

При выгрузке ключевых слов из Google Analytics максимальный объем csv-файла ограничен 500-ми запросами. Сократить рутину можно, как минимум, двумя способами:

  • Если при построении нужного отчета в Google Analytics добавить к url параметр &limit=50000, выгрузка по ссылке «csv» магическим образом будет расширена до 50000 запросов.
  • У Google Analytics есть API, которое можно использовать для получения данных. Вот примеры приложений, обеспечивающих выгрузку прямо в Excel.

Yahoo Pipes — любопытный инструмент для небольших задач автоматизации сбора и обработки данных. Например, мы хотим отслеживать посты на Searchengines.ru, созданные авторитетными SEO-специалистами. В Yahoo Pipes это делается запросто, берем RSS-фид и фильтруем его по полю «автор» (item.dc:creator):

Результат доступен в виде RSS-фида или уведомлений Yahoo Alerts. Просто и удобно. Делюсь этим примером.

Скажу несколько слов о регулярных выражениях. Для SEOшников, не имеющих опыта веб-разработки или программирования это может быть серьезным «белым пятном». Суть регулярных выражений — в компактной и чрезвычайно мощной процедуре поиска (и замены) в текстах. Существует несколько реализаций, но общие идеи неизменны. Многие продвинутые текстовые редакторы (например, textpad, pspad) позволяют использовать регулярные выражения и это, поистине, бесценно.

Разумеется, собранные данные нужно хранить в легкодоступной для обработки форме. Если данных немного — Excel в помощь. Стандартные фильтры и сортировки, плюс функции «счетесли», «суммесли», «впр» и использование табличных формул (формул массива, Ctrl-Shift-Enter) закроют основные потребности в выборке данных. Для больших объемов данных стоит использовать базы данных (MySQL, PostgreSQL и т.д.). SQL несложен и эффективен.


(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Иван
    больше года назад
    Еще хороший сервис для съема позиций seoplane.ru
    -
    1
    +
    Ответить
  • Михаил Сливинский
    33
    комментария
    0
    читателей
    Михаил Сливинский
    больше года назад
    Это не беда. Просто смените расширение файла на txt откройте документ Excel'ем. При открытии будет предложено выбрать кодировку ;)
    -
    1
    +
    Ответить
  • Гость
    больше года назад

    Да, вы правы, все проверил, работает, одна беда - получил кривую кодировку... :)
    -
    -1
    +
    Ответить
  • Михаил Сливинский
    33
    комментария
    0
    читателей
    Михаил Сливинский
    больше года назад
    Murz, да, все просто. Мы ведь говорим о простых общедоступных инструментах ;) Спасибо за Ваш пример!

    Иван, GA визуально и не должен реагировать на доп. параметр. Т.е. после того, как Вы модифицировали url и нажали enter, страница перегрузится и можно делать выгрузку в csv. При этом вид страницы не изменится. Пробуйте, метод гарантированно работает.
    -
    1
    +
    Ответить
  • Иван
    больше года назад
    Что то не выходит с выгрузкой, во первых GA никак не реагирует на дополнительный параметр в url и вообще параметр количества строк таблицы в url никак не отражается.
    -
    0
    +
    Ответить
  • Murz
    8
    комментариев
    0
    читателей
    Murz
    больше года назад
    А... всё так просто ;) Я думал он там какие-то более хитрые данные собирает, группирует.
    А так для поиска жирностей можно использовать xpath и расширение Xpath Checker.
    Для яндекса например - открываем страницу, правой кнопкой на жирное слово, view xpath и получаем xpath:
    id('js')/x:body/x:div[3]/x:div/x:div[2]/x:div/x:div[2]/x:ol/x:li[3]/x:h2/x:a/x:b[1]
    Вырезаем оттуда лишнее:
    id('js')/x:body/x:div[3]/x:div/x:div[2]/x:div//x:b...
    А... всё так просто ;) Я думал он там какие-то более хитрые данные собирает, группирует.
    А так для поиска жирностей можно использовать xpath и расширение Xpath Checker.
    Для яндекса например - открываем страницу, правой кнопкой на жирное слово, view xpath и получаем xpath:
    id('js')/x:body/x:div[3]/x:div/x:div[2]/x:div/x:div[2]/x:ol/x:li[3]/x:h2/x:a/x:b[1]
    Вырезаем оттуда лишнее:
    id('js')/x:body/x:div[3]/x:div/x:div[2]/x:div//x:b
    и получаем список колдунства ;)
    -
    -1
    +
    Ответить
  • dimok
    52
    комментария
    0
    читателей
    dimok
    больше года назад
    пайпы - сила! много вопросов может решать
    -
    0
    +
    Ответить
  • Михаил Сливинский
    33
    комментария
    0
    читателей
    Михаил Сливинский
    больше года назад
    dimok, точно :)

    Denis, я не стремился рассказать про общеизвестные инструменты. Я описал некоторые малоизвестные, но эффективные инструменты. Будет время - продолжу ;)
    -
    0
    +
    Ответить
  • Murz
    8
    комментариев
    0
    читателей
    Murz
    больше года назад
    Что-то непонятно как с помощью OutWit удалось вытащить переколдовки со страницы. Нужен какой-то скрипт для этого задать? Можно поподробнее, с примерами, как с помощью OutWit извлекать полезные данные со страницы?
    -
    0
    +
    Ответить
  • Михаил Юрьевич
    больше года назад
    Присоединяюсь к Murz с тем же вопросом, но если есть возможность поделиться "секретом Полишинеля" :)) поподробнее о OutWit.
    Просим! просим! просим!..
    -
    1
    +
    Ответить
  • Михаил Сливинский
    33
    комментария
    0
    читателей
    Михаил Сливинский
    больше года назад
    [CODE]Ок, давайте на примере "продвижения сайтов" и рассмотрим пошагово:

    1. Запрос в ya.ru "продвижение сайтов".
    2. Кликаем на иконку OutWit.
    3. В левом меню выбираем "scrapers".
    4. Смотрим на html код выдачи и понимаем, что переколдовки и термины запроса выделены тегом <b></b>.
    5. Создаем один пункт с параметрами "description"="key", "marker before" = "<b>", "mark...
    [CODE]Ок, давайте на примере "продвижения сайтов" и рассмотрим пошагово:

    1. Запрос в ya.ru "продвижение сайтов".
    2. Кликаем на иконку OutWit.
    3. В левом меню выбираем "scrapers".
    4. Смотрим на html код выдачи и понимаем, что переколдовки и термины запроса выделены тегом <b></b>.
    5. Создаем один пункт с параметрами "description"="key", "marker before" = "<b>", "marker after" = "</b>" и отмечаем чекбокс "ok".
    6. Сохраняем scraper ("save").
    7. Выбираем сохраненный scraper и жмем кнопку "execute".
    8. Вуаля :)[/CODE]
    -
    0
    +
    Ответить
  • Denis
    больше года назад
    С таким громким названием поста всего лишь три инструмента. Чувствую, что меня где-то обманули ))
    -
    0
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Google Data Studio: делаем красивые отчеты по контекстной рекламе для клиентов
Askar Seitov
1
комментарий
0
читателей
Полный профиль
Askar Seitov - помогите! не могу понять почему по инструкции в вашей статье добавляю вычистяемые поля просто копирую ваш код, но датастудио выдает ошибку на этот код: Синтаксическая ошибка: Недопустимый входной символ. Убедитесь, что в формуле нет кавычек-лапок.. как это исправить? я все варианты кавычек уже попробовал
#SEOnews14: мы празднуем – вы получаете подарки!
Rizat Sundetov
1
комментарий
0
читателей
Полный профиль
Rizat Sundetov - 14
Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
1qa
1
комментарий
0
читателей
Полный профиль
1qa - 87 Performance 95 Accessibility 79 Best Practices 95 SEO аудит точнее будет
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Дмитрий
1
комментарий
0
читателей
Полный профиль
Дмитрий - Здравствуйте, на сайте возможно несколькими путями дойти до почти одинаковой страницы, те отличаться будет только незначительная часть H1, а контент будет одинаковым, дело в применимости автозапчастей к разным автомобилям. Что из этого будет каноничной ссылкой и какие есть пути для решения подобных ситуаций? 1 - bpauto.ru/catalog/audi/audi-a6/a6-iv-c7-sedan-2011-2014/kuzov-naruzhnaya-chast/dveri-i-komplektuyushchie/dver-perednyaya-levaya/ 2 - bpauto.ru/catalog/audi/audi-a6/a6-iv-c7-rest-sedan-2014-n-v-/kuzov-naruzhnaya-chast/dveri-i-komplektuyushchie/dver-perednyaya-levaya/
Как выбрать подрядчика для продвижения сайта: 7 уровней воронки поиска
aashutosh
1
комментарий
0
читателей
Полный профиль
aashutosh - data science training institute in noida- Webtrackker Technology (8802820025) providing Data Science Training in Noida. Get ✓ 40 Hours Learning training✓ 70 Hrs Projects ✓ 24 X 7 Support ✓ Job Assistance. WEBTRACKKER TECHNOLOGY (P) LTD. C - 67, sector- 63, Noida, India. E-47 Sector 3, Noida, India. +91 - 8802820025 0120-433-0760 +91 - 8810252423 012 - 04204716 EMAIL:info@webtrackker.com webtrackker.com/Best-Data-Science-Training-Institute-in-Noida.php
Как построить качественный ссылочный профиль на основе конкурентов
Ирина
5
комментариев
0
читателей
Полный профиль
Ирина - Давно сотрудничаю с megaindex.com и считаю данный сервис одним из лучших в сео сегменте рунета да и не только рунета. Пользуюсь их инструментами для аналитики своих работ и выявлению своих и чужих ошибок. Да и ссылочный профиль, как и говорится в данной статье сделать гораздо проще и правильней при помощи как раз мегаиндекса. Добавлю еще что инструмент для поиска конкурентов у мегаиндекса очень удобный и простой в применении.
Как я пытался купить CRM-систему, но мне ее поленились продать
Kristina
1
комментарий
0
читателей
Полный профиль
Kristina - Очень рекомендую CRM-систему польской фирмы Firmao. Все функции настраиваются в соответствии с индивидуальным потребностям компании! Советую попробовать бесплатную демо-версию, чтобы попробовать все необходимые функции, без лишних кнопок и траты дополнительных финансов! :) Сайт: firmao.ru/info
Чек-лист для аудита рекламных кампаний в Яндекс.Директе и Google Ads
Елена Бикташева
1
комментарий
0
читателей
Полный профиль
Елена Бикташева - Спасибо! Была бы еще возможность скачивания.
6 советов по продвижению сайта в Google
Алексей Махметхажиев
1
комментарий
0
читателей
Полный профиль
Алексей Махметхажиев - Спасибо за статью! Конечно, измерять одним только гуглом скорость нельзя. Я измеряю PageSpeed + GTmetrix + loading.express. Так же надо следить за скоростью ответат сервера. Я использую ping-admin им можно мониторить падения сайта тоже.
6 причин, почему нет позиций и трафика
Артур Латыпов
0
комментариев
0
читателей
Полный профиль
Артур Латыпов - Леонид, да 3 пункта повторяется, согласен. Но сильно актуальны и сейчас, смотрим на сайты, приходящие на SEO, которые ранее продвигались, практически на всех можно что из 6 пунктов найти, исправить и ситуация улучшиться оперативно.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
353
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
105
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
69
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!