×
Россия +7 (495) 139-20-33

Как хранить данные по оптимизации сайта: сводная таблица

Россия +7 (495) 139-20-33
Шрифт:
9 25352

В обсуждении с коллегами из других компаний был поднят вопрос о том, как удобно хранить данные по оптимизации сайта (семантическое ядро, метатеги, данные по ТЗ и их внедрению и т.п.). Я предложил свое решение этой задачи, которое мне кажется наиболее удобным для работы и восприятия.

Я называю это решение «Сводная таблица оптимизации сайта» — это хабовая таблица, агрегирующая в себе наиболее важные данные, касающиеся оптимизации сайта и помогающая контролировать его продвижение.

О том, какие данные содержатся в данной таблице, расскажу в этой статье.

1. Инструменты

Сразу оговорюсь, что мы работаем в облаке Google Drive и его приложениях. Этому есть несколько причин:

  1. С проектом работает несколько специалистов (оптимизатор, проект-менеджер, копирайтеры и т.д.). Работать в облаке значительно быстрее, чем перекидываться копиями документов по почте.
  2. Иногда данные могут потребоваться, когда специалист физически находится не у рабочего компьютера, а телефон или планшет всегда под рукой.
  3. Возможность легкой миграции данных между документами.

У нас есть стандартизированная структура, как хранить данные по проектам в Google Drive, чтобы можно было взять нужную информацию, не отвлекая других от работы.

Структура выглядит следующим образом:

  • У каждого специалиста есть папка «Проекты».
  • Для каждого проекта заводится своя папка с соответствующим названием.
  • Внутри папки проекта есть несколько стандартных подпапок и уникальные папки под потребности проекта.

Рис. 1 Структура папки проекта.png

Рис. 1 Структура папки проекта

2. Структура таблицы

Мы составляем сводную таблицу в начале работы над проектом и дополняем ее на протяжении всей работы.

Стандартные столбцы, используемые в таблице:

  • URL — адреса страниц. Данные из столбца также могут использоваться в качестве якоря для функций (ВПР, СУММЕСЛИ и т.п.);
  • Структура — место страницы в структуре сайта. Аналог классических хлебных крошек;
  • Тип — к какому типу относится страница. Особенно актуально для интернет-магазинов, в которых мы выделяем такие типы, как «Каталог», «Тег», «Фильтр», «Карточка», «Информационная» и «Вспомогательная»;
  • H1 — h1 заголовок страницы;
  • Title — title страницы;
  • H2 — список заголовков h2 для страницы;
  • Текст — пометка о статусе текста на странице в формате «Есть», «Нет», «ТЗ»;
  • Месяц — когда в последний раз производились (в) работы или планируются проводиться (п) работы над страницей, в формате “ММ.ГГГГ”
  • Семантическое ядро — в столбце выкладывается ссылка на файл, в котором содержится семантическое ядро для соответствующего раздела.

Кроме описанных столбцов, в зависимости от задачи, таблица дополняется и другими данными, например:

  • Запрос — основной запрос для страницы;
  • Группа столбцов по частотностям запроса — в зависимости от сайта, могут содержаться как классические частотности (Ч, “Ч”, “!Ч”, “[!Ч]”), так и с наложением коэффициента по поисковым системам;
  • Группа столбцов сезонности за последние 12–24 месяца;
  • И другие.

С шаблоном таблицы вы можете ознакомиться по ссылке.

3. Заполнение первичных данных

Заполнить таблицу первичными данными можно и руками.

Но данный способ не всегда оптимальный, поэтому мы в своей работе используем Screaming Frog SEO Spider.

Я буду показывать пример работы, основываясь на взаимодействии с данным инструментом.

3.1. Парсим данные с сайта

Перед началом парсинга отключаем все бесполезные функции, которые нам не понадобятся (Configuration — Spider):

  • Проверку изображений;
  • Проверку ресурсов (js, css и swf);
  • Проверку внешних исходящих ссылок.

Рис. 2 Настройка Screaming Frog.png

Рис. 2 Настройка Screaming Frog

Далее копируем XPath корневого блока хлебных крошек на сайте, если они там есть.

Для этого:

  1. Открываем внутреннюю страницу, на которой есть хлебные крошки в Google Chrome.
  2. Открываем консоль (Ctrl + Shift + i).
  3. Выделяем инспектором корневой блок хлебных крошек.
  4. В контекстном меню выбираем Copy XPath.

Рис. 3 Копирование XPath.png

Рис. 3 Копирование XPath

  1. В Screaming Frog переходим в Configuration — Custom — Extraction.
  2. В открывшемся окне:

  • Выбираем XPath;
  • Вставляем скопированный путь;
  • Extract Text.

Рис. 4 Extraction в SCSS.png

Рис. 4 Extraction в SCSS

И парсим сайт.

3.2. Сведение данных

После того как сайт спарсится, выгружаем отчеты:

  • Информация по HTML (Internal — HTML);
  • Хлебные крошки (Custom — Exctraction).

И переносим данные отчета в сводную таблицу.

Чтобы не перепутались данные, и колонки не «поехали», можно воспользоваться функцией ВПР.

Нас интересуют:

  • Url;
  • H1;
  • Title;
  • Хлебные крошки.

Рис. 5 Заполненная первичными данными таблица.png

Рис. 5 Заполненная первичными данными таблица

Пример таблицы, заполненной первичными данными по ссылке, на вкладке «Пример».

Алгоритм дальнейшей работы полностью зависит от типа проекта, цели продвижения и выбранной стратегии.

Заключение

После внедрения данного инструмента в свою работу мы решили многие задачи, которые остро стоят перед каждым специалистом (все метатеги в одном месте, контроль выполнения задач и т.п.).

Надеюсь, вам подобная сводная таблица тоже будет полезна.

Если у вас есть вопросы, готов их обсудить. 

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Alexander Khayev
    2
    комментария
    0
    читателей
    Alexander Khayev
    больше года назад
    Такой же отчет автоматом можно получить в Семониторе, модуль СайтАнализатор, чем успешно и пользуюсь. Он же покажет битые ссылки (внутренние и внешние), нарисует вам xml и html карты сайта и поможет проанализировать заголовки сервера по нужным страницам. А что еще нужно? :)
    -
    3
    +
    Ответить
    • Руслан Фатхутдинов
      19
      комментариев
      0
      читателей
      Руслан Фатхутдинов
      Alexander Khayev
      больше года назад
      Спасибо за наводку, интересный инструмент. На сколько я понял, это десктопный софт?
      Но, как я говорил в статье, из-за того что над проектом может работать несколько специалистов, приходится все хранить в облаке.
      Плюс, ко всему, обычно, к этому отчету я подгружаю дополнительные данные, например:
      — Сезонность
      — Эталонный спрос страницы
      — Посещаемость страницы за месяц
      — Какие-то дополнительные заметки по экспериментам
      И другие :)
      -
      1
      +
      Ответить
  • Сергей Иванов
    57
    комментариев
    0
    читателей
    Сергей Иванов
    больше года назад
    Почему-то не продвигается сайт. В чем может быть ошибка?
    -
    -7
    +
    Ответить
  • Дмитрий
    1
    комментарий
    0
    читателей
    Дмитрий
    больше года назад
    Руслан, спасибо за статью. Расскажите подробнее какие инструменты для seo оптимизации используете лично вы и ли у вас какой-нибудь to do list
    -
    1
    +
    Ответить
    • Руслан Фатхутдинов
      19
      комментариев
      0
      читателей
      Руслан Фатхутдинов
      Дмитрий
      больше года назад
      Спасибо за вопрос. В наборе софта, наверное, я не уникален.
      — KeyCollector для обработки и хранения семантики
      — KeyAssort для кластеризации запросов
      — FastTrust для анализа ссылочного
      — Axure для рисования макетов
      — TextMate для регулярок
      — ScreamingFrog для технического анализа
      — Log File Analyser для отслеживания обхода страниц ботами
      — Xmind для визуализации структуры сайта
      — Seo Excel для "доработки" семантики
      — Разные ...
      Спасибо за вопрос. В наборе софта, наверное, я не уникален.
      — KeyCollector для обработки и хранения семантики
      — KeyAssort для кластеризации запросов
      — FastTrust для анализа ссылочного
      — Axure для рисования макетов
      — TextMate для регулярок
      — ScreamingFrog для технического анализа
      — Log File Analyser для отслеживания обхода страниц ботами
      — Xmind для визуализации структуры сайта
      — Seo Excel для "доработки" семантики
      — Разные сервисы: rush-analytics, pixel tools, serpstat, keys.so
      Из задачников, это google keep.
      Надеюсь, что-нибудь интересное для себя найдете :)
      -
      4
      +
      Ответить
  • Антон Меренков
    1
    комментарий
    0
    читателей
    Антон Меренков
    больше года назад
    Почему-то не запускается парсинг. В чем может быть ошибка?
    -
    0
    +
    Ответить
    • Ирина
      1
      комментарий
      0
      читателей
      Ирина
      Антон Меренков
      больше года назад
      Парсинг, наверное, не запускается потому что опция
      "В Screaming Frog переходим в Configuration — Custom — Extraction" доступна только при покупке лицензии за 149 евро, а в бесплатной версии - нет.
      -
      1
      +
      Ответить
    • Руслан Фатхутдинов
      19
      комментариев
      0
      читателей
      Пришлите что пишет screaming frog в меню "Help" — "Debug".
      Разберемся вместе.
      -
      0
      +
      Ответить
    • Александр
      3
      комментария
      0
      читателей
      Александр
      Антон Меренков
      больше года назад
      Почему-то не заводится машина. В чем может быть ошибка?
      -
      11
      +
      Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
14
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
#SEOnews14: мы празднуем – вы получаете подарки!
Анна Макарова
362
комментария
0
читателей
Полный профиль
Анна Макарова - Гость, добрый день! С победителями мы связывались сразу после розыгрыша. Если мы вам не написали, значит, ваш номер не выпал. Но не расстраивайтесь, у нас обязательно будут новые розыгрыши!
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
Блорик Саакашвили
2
комментария
0
читателей
Полный профиль
Блорик Саакашвили - Ну а так конечно согласен видно что у автора статьи не такие и глубокие знания...
Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
Георгий
1
комментарий
0
читателей
Полный профиль
Георгий - Все что рекомендуется в этой статье есть у w.tools. Ни разу не пожалел что подключился. Своя CDN сеть, кеш статики и динамики, минификация js\css и кешируемого html, оптимизация всех типов картинок и еще куча всего полезного. Сайт летает и я не знаю проблем. Могу рекомендовать от души.
«Аудит, чтобы ты заплакала…», или Что делать, когда получил сторонний аудит сайта
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Воообще, на самом деле здесь двоякое впечатление от таких аудитов. Конечно, для полного глубокого анализа и подготовки рекомендаций по сайту - нужны доступы к системам аналитики и инструментам вебмастера. Но если оценивать подобные аудиты с точки зрения чистого SEO (которое все больше и больше становится лишь малой частью digital-маркетинга, лишь одним из каналов) - они имеют место быть. Но с оговоркой, что они сделаны с учетом анализа конкурентов/отрасли. Современные инструменты и алгоритмы позволяют делать это маркетологам в автоматическом режиме, и даже давать рекомендации - возможностями машинного обучения уже никого не удивишь. Да, полное перечисление "мифического" списка ошибок, построенного по предикативным правилам, да еще и с учетом устаревших особенностей ПС - это явный признак некачественного аудита. В первую очередь потому, что эти "ошибки" следует рассматривать в качестве рекомендаций от ПС (как и говорится в справочнике вебмастера у Яндекса/Google). Однако если эти данные даются с отсылкой на данные о конкурентах, об отрасли, используются методы ML и Natural language processing для обработки исходных данных, кластеризации запросов, классификации страниц/запросов/сайтов, определения структуры документа - такие отчеты имеют право на существование. Но ключевым моментом является то, что подобные инструменты достаточно сложны в разработке, а значит требуют квалифицированных специалистов для их разработки. Которых просто нет у студий рассылающих подобные "сео отчеты". Подобные отчеты по "ошибках" тоже неплохой источник информации, но лишь на 0 этапе анализа сайта. И в принципе, теоретически, возможно почти полное составление "хороших аудитов" без участия маркетолога, на основе лишь открытых данных сайта/внешних источников, но только при соответствующем применении всех современных возможностей анализа данных и рекомендательных систем. И в любом случае подобный "хороший отчет" требует конечного заключения от эксперта.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита
Kosta Bankovski
4
комментария
0
читателей
Полный профиль
Kosta Bankovski - Спасибо за приятные слова! Буду и дальше делиться наработками ;)
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Как вывести сайт в ТОП 10 Google в 2019 году
Роман
1
комментарий
0
читателей
Полный профиль
Роман - Вот скажите пожалуйста, Мне разработали сайт на мою фирму, www.линк.kz и теперь надо решить, сео продвижение у нас стоит около 25000 - 30000 руб. в месяц, для меня сумма не маленькая стоит ли оно того? или можно просто оптимизировать сайт в плане СЕО и выходить в ТОП за счет трафика?
Как улучшить репутацию сайта недвижимости с помощью крауд-маркетинга
Евгений
3
комментария
0
читателей
Полный профиль
Евгений - а у вас какое впечатление от статьи?
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
362
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
107
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
82
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!