25-26 сентября в Казани проходит V ежегодная SEO Conference. Мероприятие, традиционно, собирает самых известных экспертов отечественной SEO-отрасли и digital. В этом году на конференции выступают с докладами Михаил Сливинский, Алексей Иванов, Константин Леонович, Сергей Людкевич и многие другие.
В этом году программа конференции была разделена на два потока — о добыче и монетизации трафика и об интернет-рекламе в целом. Ведущим первой секции выступил Наиль Байков, второй — Елена Луценко.
В рамках первого потока доклад «Прикладная поисковая аналитика или что вы
По словам Михаила, халявы при продвижении уже нет. Может быть, раньше она была. Но сейчас получение трафика на свой сайт требует больших усилий.
С измерениями в SEO беда. Идей много, а что делать с данными никто так и не знает. Например, простое измерение позиций: сайт прибавил 6% запросов в ТОП-10 и 31% в ТОП-3 — изменения колоссальные, но их увидеть смогут не все.
По многим запросам позиции меняются хаотично и отследить каждое изменение невозможно. Тут надо уметь отделять значимое от незначительного. Если запрос постоянно «колбасит», значит, это нормальная для него ситуация.
Чтобы иметь полную картину, нужно анализировать несколько метрик: недостаточно смотреть на ТОП в какой-то зоне (3, 5, 10 и т.д.), нужно добавлять потенциальный трафик, к примеру. На стыках зарыты типы запросов, сезонность и многое другое. В этом сравнительном анализе можно найти много всего.
Что можно делать в рамках крупного сайта для привлечения дополнительного трафика:
- например, когда на Wikimart починили микроразметку, трафик из Google вырос на 9,5%.
- работа с контентом:
Все иногда ломается и все всегда ошибаются. Например, разработчики Wikimart по ошибке добавили meta noindex на все листинги. Результат — потеря 13% трафика. В этом случае может помочь 503 статус.
Метрики, за которыми необходимо следить:
- количество документов, которые краулились 20 и более дней назад,
- количество документов не в индексе, у которых дата последнего краулинга менее 30 дней от текущей даты,
- запросы, у которых URL для [q site:][q], при условии, что целевой документ в индексе,
- 404 и пустые с точки зрения контента лендинги,
- слова запроса в контенте и тайтле — ищем отдельные слова по документам и находим проблемы в контенте.
Для анализа данных можно использовать огромные сводки с самой разной информацией, а можно вполне простые: