×
Россия +7 (495) 139-20-33

BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита

Россия +7 (495) 139-20-33
Шрифт:
9 25891

Часто бывает, что вы собрали очень много данных по сайту, есть выгрузки из 10 сервисов, 50 документов или вкладок браузера. Затем вы начинаете копаться в каждом из них отдельно и не видите полную картину происходящего. В подобном хаосе зачастую не получается сделать правильные выводы, приоритизировать задачи и ничего не упустить.

Я Growth Hacker в компании Netpeak Software. Мы разрабатываем программы для SEO-специалистов и вебмастеров. На конференции Baltic Digital Days 2019 в рамках SEO-потока я выступал с докладом: «Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита?».

Перейти к презентации спикера

В докладе я поделился многофункциональным инструментом, на создание которого меня вдохновил опыт нашей компании в разработке уже нескольких программ, общении с тысячами специалистов по всеми миру и с множеством проектов. Это не просто шаблон SEO-аудита, он позволяет найти точки роста, проблемные зоны сайта и визуализировать данные, что сможет вам помочь на этапе пресейла.

Концепт процесса комплексного SEO-аудита я показал на примере интернет-магазина, однако он применим ко всем видам сайтов.

Отмечу главные преимущества моего подхода:

  • Комплексность. Получаем данные о множестве факторов ранжирования (и не только) из различных источников в одном месте.
  • Скорость. Собираем данные и находим инсайты, проблемы и точки роста за минимальное количество времени.
  • Доступность и простота. Каждый может применять этот подход, можно даже делегировать его сотрудникам (Junior-специалистам), потому что он детально описан в мануале.
  • Кастомизируемость. В любой момент времени вы можете что-то добавить, что-то убрать, использовать какую-то уникальную наработку.

Преимущества подхода

1. Собираем данные по сайту воедино, чтобы ничего не упустить

Я хочу предложить решение этой проблемы в сервисе Google Таблицы, так как он простой, мощный и бесплатный. Наиболее полезен он будет для проектов до 30 тысяч страниц, так как есть ограничения по размеру документа. Если вы работаете над очень большими проектами, тогда сам подход будет вам полезен, но инструментарий в виде Google Таблицы не подойдет для вашего количества данных.

В таблицу я собираю все доступные данные и консолидирую всю информацию по странице из различных источников.

Вы можете использовать ее как уже готовый шаблон для работы или персонализировать под ваши процессы – «прикрутить» свои дополнительные модули / проверки / отчеты.

Шаблон SEO-аудита

2. Алгоритм работы с шаблоном

Алгоритм работы с шаблоном

Повторяем эти четыре шага с определённой периодичностью. Каждый шаг детально и односмысленно описываем в регламенте работы, минимизируя шанс что-либо упустить, сделать неправильно. Пройдемся детальнее по каждому шагу.

Определяем типы страниц и количество товаров на листингах

Итак, у нас есть сайт (я для примера использую интернет-магазин tricolor.com.ua), который нужно просканировать и разметить типы страниц. В случае с интернет-магазином стоит дополнительно подтягивать количество товаров. Для этого можно использовать данные парсинга по микроразметке или другое условие кастомного парсинга.

Страницы нужно разбивать по типам и/или категориям, чтобы потом удобно сегментировать данные. Тип страницы и/или категорию чаще всего можно определить по URL. Например, карточка товара находится по URL-адресу, который содержит сегмент /product/. Когда так нельзя сделать, используйте парсинг, чтобы найти на разных типах страниц уникальный код, который и отличает этот тип.

На различных проектах типы страниц и категории будут отличаться, поэтому определите изначально, как вы хотите сегментировать страницы. Например, если на сайте есть листинги для различных городов, тогда есть смысл добавить тег города. Если есть страницы, которые содержат все товары определенного бренда, тогда есть смысл добавить тег листинга бренда.

Определяем типы страниц и количество товаров на листингах

Проверяем индексацию и наличие страницы в картах сайта

Наличие страниц в индексе поисковых систем можно проверить с помощью Netpeak Checker, Rush Analytics, overlead.me, других вариантов.

Но проверка индексации стоит денег. Поэтому можно немного сэкономить на этой проверке и сразу считать проиндексированными страницы, которые получали показы или трафик за последнюю неделю.

Когда вы анализируете страницы, которые не попали в индекс, нужно сразу проверить, есть ли они в карте сайта. Дополнительно просканируйте все страницы из карты сайта, чтобы найти среди них проблемные (битые, редиректы, закрытые от индексации), которые затем замените на целевые.

Проверяем индексацию и наличие страницы в картах сайта

Определяем категории для сегментации по важным параметрам

Сюда подтягиваем основные On-Page данные (внутренние входящие ссылки, скорость ответа сервера, глубину URL, количество слов, инструкции индексации, метатеги, другие). Советую сразу сделать категории по этим показателям, чтобы удобнее сегментировать данные и строить диаграммы.

Определяем категории для сегментации по важным параметрам

Выгружаем и определяем качество ссылок

Переходим к внешним факторам. Выгружаем данные по ссылкам из Serpstat, Ahrefs, MegaIndex, сводим количественный показатель ссылок на каждую страницу. Затем важно видеть, сколько из них хороших, потому нужен столбец, который отфильтрует сквозные ссылки, nofollow, некачественные (DR, UR, другие по вашему условию).

Дополнительно это даст понимание о заспамлености страницы некачественными ссылками.

Выгружаем и определяем качество ссылок

Оцениваем видимость для приоритизации продвижения страниц

Если у вас собрана чистая семантика, по которой вы собираете данные по позициям и частотности – отлично, импортируйте ее в таблицу, чтобы определить видимость каждой страницы.

Если семантики нет (например, вы на этапе пресейла или анализируете конкурента), тогда можно данные по ключам выгрузить из сторонних сервисов, как это сделал я. Такими сервисами могут быть Serpstat, Spywords, keys.so, Google Search Console и/или Яндекс.Вебмастер, если есть доступы.

Например, ниже я вывел суммарную частотность запросов страниц и показы из Search Console. По этим показателям я могу приоритизировать страницы.

Оцениваем видимость для приоритизации продвижения страниц

Определяем потенциал роста страниц по количеству запросов в ТОПе

Дальше считаем количество ключей, по которым страница показывается в ТОП 3 и ТОП 10, чтобы оценить потенциал роста страницы. Позиции можно изменять в зависимости от текущих позиций проекта, например, для кого-то это будет ТОП 10 и ТОП 20. Важно учитывать именно небрендовые запросы.

Определяем потенциал роста страниц по количеству запросов в ТОПе

Подтягиваем данные по трафику и конверсиям

С помощью расширения Google Analytics для Google Таблиц я выгружаю данные по трафику и конверсиям в документ, а потом консолидирую со страницами с помощью VLOOKUP (вертикальный поиск, ВПР). Важно смотреть не только трафик, но и конверсионность.

Подтягиваем данные по трафику и конверсиям

Итого у нас есть минимальный набор данных для комплексного анализа страниц, который можно дополнить логами сервера, данными из CRM или релевантными вашему проекту и процессам параметрами.

Источники данных для аудита

Чтобы упростить внедрение такого подхода в ваши процессы, я подготовил детальный пошаговый мануал процесса сбора данных. Копируйте себе, дополняйте, модифицируйте под свои задачи, процессы, инструменты. Буду рад, если дадите обратную связь в комментариях о том, что еще хотели бы видеть в отчете и регламенте.

Регламент по сбору данных в шаблон SEO-аудита

Используем API для ускорения сбора данных

Вы можете выгружать данные вручную и потратить на это много времени, а можете собирать их по API за считанные минуты, особенно из сервисов Google Analytics, Я.Метрики, Google Search Console, Я.Вебмастера. Я описал в регламентe действия для выгрузки данных нюансы для обхода сэмплирования.

P.S. Для Excel есть надстройки, которые выгружают данные (PQGoogleAnalytics и PQYandexMetrika от Максима Уварова).

Используем API для ускорения сбора данных

Алгоритм добавления новых данных

Данные из разных сервисов нужно собирать на новые листы в формате URL → Данные, чтобы потом использовать VLOOKUP (он же ВПР, вертикальный поиск) и подтягивать в основную таблицу информацию по каждому URL.

Данные, которые вы не собираетесь периодически заменять (например, по ссылкам), после подтягивания формулой советую скопировать и вставить только значения, чтобы не загружать сильно таблицу.

Алгоритм добавления новых данных

Небольшая фишка: если в сервисе нет нужного вам отчета, но есть API, на помощь всегда приходит скрипт ImportJSON, который поможет распарсить API-ответ прямо в Google Таблицы.

ImportJSON позволяет получить данные API-ответа в таблицу

Чтобы посмотреть, как это выглядит, перейдите в документ с шаблоном такого отчета.

Вывод

Мы собираем данные быстро из множества доступных нам источников. Шаблон определяет ошибки, точки роста, визуализирует данные. Можно использовать также Data Studio – тогда данные автоматически подтягиваются для формирования красивых отчетов. Вам остается сделать выводы и помочь клиенту увидеть проблемы, их решение и точки роста, т.е. качественно презентовать вашу работу.

Полезные материалы:

  1. Мануал по построению отчёта в Data Studio.
  2. Мануал по сбору данных для SEO-аудита.
  3. Шаблон SEO-аудита.

Если материал был вам полезен, добавляйтесь в друзья на Facebook, буду рад ;) 


Нужно больше подробностей? Скорее всего, они есть в презентации спикера.


Читайте также:

(Голосов: 9, Рейтинг: 4.22)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Feth
    1
    комментарий
    0
    читателей
    Feth
    больше года назад
    Тот момент, когда от статьи в интернете получаешь больше полезных знаний и навыков, чем от своего начальства. По статьям нетпиковцев можно учебник про SEO уже сшивать, ребята молодцы. Спасибо, что делитесь информацией.
    -
    2
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Kosta Bankovski
      Feth
      больше года назад
      Спасибо за приятные слова! Буду и дальше делиться наработками ;)
      -
      0
      +
      Ответить
  • Arseniy
    1
    комментарий
    0
    читателей
    Arseniy
    больше года назад
    Получилось у кого скопировать и открыть этот шаблон SEO-аудита?
    Через Google Sheets никак не может обработать, "Google Docs encountered an error. Please try reloading this page, or coming back to it in a few minutes."
    Не слишком он объемный? Может удалить большую часть данных из примера?
    -
    0
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Kosta Bankovski
      Arseniy
      больше года назад
      Иногда такое случается, попробуйте следующий способ:
      1. скачать документ в формате .xlsx,
      2. импортировать его в новую таблицу.

      Может на 5 минут подвиснуть или выдать ошибку, но потом загрузится. Если не будет получаться, напишите в личку на ФБ, я отправлю лично.

      bit.ly/FB-Kosta-Bankovski
      -
      0
      +
      Ответить
  • Константин Даткунас
    4
    комментария
    0
    читателей
    Константин Даткунас
    больше года назад
    Так понимаю это конспект доклада, а не доклад. Не очень понятно что куда
    -
    0
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Kosta Bankovski
      Константин Даткунас
      больше года назад
      Да, это конспект, я постарался собрать самые важные моменты. Скоро выйдет ряд статей у нас на блоге Netpeak Software, там будет более развёрнутая информация.
      -
      0
      +
      Ответить
  • ГостьПавел Журавель
    1
    комментарий
    0
    читателей
    ГостьПавел Журавель
    больше года назад
    скажите, зачем мне пользоваться этим сервисом, если я могу использовать уже давно известный и проверенный Screeming Frog?
    -
    5
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Вы можете использовать и Screaming Frog для сбора данных, в докладе я не привязывался именно к Netpeak Spider, но раз вы сами спросили ;)

      Есть почти 2 десятка преимуществ у использования именно нашего краулера, например, оптимальное потребление оперативной памяти (очень полезно во время работы с большими сайтами), управление параметрами сканирования (чтобы не собирать лишнее), сегментация полученных данных (для детального исследования сайта под разными уг...
      Вы можете использовать и Screaming Frog для сбора данных, в докладе я не привязывался именно к Netpeak Spider, но раз вы сами спросили ;)

      Есть почти 2 десятка преимуществ у использования именно нашего краулера, например, оптимальное потребление оперативной памяти (очень полезно во время работы с большими сайтами), управление параметрами сканирования (чтобы не собирать лишнее), сегментация полученных данных (для детального исследования сайта под разными углами) и др.

      Да и в целом доклад и статья были не про инструменты краулинга или ещё какие, а о комплексном подходе в сборе и анализе данных. Я подготовил таблицу и регламент работ, которые могут помочь многим специалистам, инструменты тут на ваш вкус, главное, чтобы они предоставляли нужные данные.
      -
      0
      +
      Ответить
  • Иван
    11
    комментариев
    0
    читателей
    Иван
    больше года назад
    Наука, однако )
    -
    2
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Кейс: как за 30 дней вывести новый сайт в ТОП выдачи Google
Сергей
2
комментария
0
читателей
Полный профиль
Сергей - Прошёл у Паши курс год назад, пытался продвигать свой сайт portativ.org.ua, но особых продвижений нет. Наверное сео уже умерло??
Облако тегов в интернет-магазине: прикладная инструкция по увеличению трафика
Юлия Дмитриева
2
комментария
0
читателей
Полный профиль
Юлия Дмитриева - Согласна с вами, что в любом деле важен индивидуальный подход:)
Специалисты в Рунете заметили глобальную накрутку поведенческих факторов
Дмитрий Кулаевский
1
комментарий
0
читателей
Полный профиль
Дмитрий Кулаевский - кто-нибудь знает как с этим бороться? очень много такого трафа идёт с июля, сайт сильно просел
Как стандартизировать данные семантики с помощью логарифмов
Юлий
1
комментарий
0
читателей
Полный профиль
Юлий - Чем снималась коммерцелизация?
Яндекс возобновил «показательные порки» за накрутку поведенческих факторов
Антон
1
комментарий
0
читателей
Полный профиль
Антон - Никакой не выпал. Кроме клиентского сайта, который проседал из-за скрутки, о чем Я.Поиску сообщали и клиенту тоже. Ноль реакции от поисковика (продолжайте развивать сайт, никаких проблем нет ...). Клиенту надоело и он заказал накрутку у подрядчиков. Мы искренне ждали бана, сообщали об этом клиенту, т.к. мы все таки делаем все остальное для развития. Как итог: с лета полет нормальный. Сайт растет, никаких проблем. Случайно даже стажер палил тех поддержке факт использования накрутки. И ничего. Сайт растет дальше. Если они не могут ничего принять даже после признания факта накрутки, что они могут сделать с жалобами на накрутку конкурентов?! Никогда не одобряли данные методы, но ... похоже ... все работает :)
«Нет в наличии»: что делать с карточками отсутствующего товара
freyr energy
1
комментарий
0
читателей
Полный профиль
freyr energy - Thank you so much @ admin for share your valuable thoughts and ideas We always enjoy your articles its inspired a lot by reading your articles day by day. So please accept my thanks and congrats for success of your latest series. We hope, you should published more better articles like ever before solar rooftop
Яндекс тестирует оценки сайта в сниппете
Сергей Демин
8
комментариев
0
читателей
Полный профиль
Сергей Демин - вопрос такой: где получить оценку о сайте? а не об организации
15 языков программирования, за знание которых платят выше среднего
Любомир
2
комментария
0
читателей
Полный профиль
Любомир - Ну и ЗП: ни слова о том что она варируеться от 0 до 100 000$ в год!!! Что до высокой зп надо несколько лет етим заниматся! Что 100 000$ в год на западе заробатывают, а где нибудь в азиатских страннах 100$ в год. В СНГ первые годы в разработчика ЗП как в грузчика на складе - это где то 4-5 тыс. долларов в год, и уже имея несколько лет опыта возможно дойти до 10-20 тыс. долларов в год! Почему нет конкретики? Меня лично нервирует то что людям внушают великие ЗП в АйТи, а люди тупые и ведутся!!!!
Локальное продвижение интернет-магазина: как получить дополнительный трафик из регионов
Саша Дружин
2
комментария
0
читателей
Полный профиль
Саша Дружин - У меня был опыт раскрутки сайта на иностранных рынок, например для анголязычной аудитории. В целом отличия есть, хоть и небольшие. Больше всегда прироста получил после закупки ссылок от www.e-raskrutka.ru/anothercountry , они достаточно качественно работают на англоязычную аудиторию и могут лаконично вписаться в любое обсуждение. Можно самому попробовать заказать такие ссылки и посмотреть на результат.
От количества к качеству: что происходит с рекламой в Рунете
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Истину глаголите!
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
384
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
113
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
91
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
60
Комментариев
59
Комментариев
57

Отправьте отзыв!
Отправьте отзыв!