×
Россия +7 (495) 139-20-33

Энциклопедия интернет-маркетинга: Аудит сайта. Оценка внутренних факторов сайта

Россия +7 (495) 139-20-33
Шрифт:
11 12829

Лого.jpg

SEOnews запускает новый проект для специалистов и клиентов «Энциклопедия интернет-маркетинга». Каждую неделю редакция будет публиковать обучающие материалы, авторами которых станут специалисты ведущих агентств на рынке. В итоге мы планируем выпустить полное, практически полезное и актуальное электронное руководство.

***

Аудит сайта. Оценка внутренних факторов сайта

Комплексный SEO-аудит – это всестороннее исследование сайта и анализ различных факторов, с ним связанных, позволяющее определить текущее состояние веб-ресурса, а также его слабые и сильные стороны. В него входит ряд проверок, которые можно разделить на:

1. Анализ внутренних факторов.

2. Анализ внешних факторов.

3. Анализ поведенческих факторов.

Внутренний анализ сайта (анализ внутренних факторов) – первое, что необходимо сделать, начиная работы по поисковому продвижению. Оптимальным является устранение проблем до индексации сайта поисковыми системами, а также до начала работы с внешними факторами. Правильно исходить из того, что в индекс отдается сайт, близкий к идеальному.

Под анализом внешних факторов подразумевается исследование среды, окружающей сайт (источники ссылок, конкуренты, социальные сигналы и т.д.). Большая часть таких проверок проводится периодически.

Анализ поведенческих факторов – проверка того, как сайт решает задачи пользователей. Выполняется на сайте, который имеет достаточный для статистического анализа объём аудитории. Зачастую это динамические проверки, которые должны проводиться регулярно.

В рамках данного материала рассмотрим оценку внутренних факторов сайта.

Проверка состояния файла Robots.txt

Robots.txt — текстовый файл, расположенный на сайте, предназначенный для роботов поисковых систем, должен быть доступен по адресу site.ru/robots.txt. В этом файле веб-мастер может указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждой поисковой системы по отдельности.

Благодаря настройкам в robots.txt можно исключить индексацию страниц, препятствующих корректному представлению сайта в результатах поиска.

Чаще всего исключаются технические страницы, различные сортировки, версии для печати и т.д.

Проверка robots.txt включает в себя: проверку наличия файла на сайте, поиск возможных ошибок, а также определение полноты директив, запрещающих индексацию документов, не предназначенных для роботов поисковых систем.

Проверка файла Sitemap.xml

Файл Sitemap — это файл, расположенный на сайте и содержащий дополнительную информацию о документах, подлежащих индексированию. С помощью файла Sitemap можно сообщить роботу поисковой системы, какие страницы нужно индексировать, как часто обновляется информация, а также индексирование каких адресов наиболее важно.

Наличие такого файла позволяет в более короткие строки проводить индексацию новых документов на сайте.

Необходимо проверить наличие самого файла (чаще всего он располагается по адресу ***.ru/sitemap.xml), указание ссылки на sitemap.xml в файле robots.txt, полноту покрытия сайта и проверить сам файл в валидаторе: https://webmaster.yandex.ru/sitemaptest.xml

Проверка кодов ответа сервера

Код состояния HTTP (код ответа сервера) — часть первой строки ответа сервера при запросах по протоколу HTTP. Он представляет собой целое число из трех арабских цифр. Первая цифра указывает на класс состояния. За кодом ответа обычно следует отделённая пробелом поясняющая фраза на английском языке, которая разъясняет человеку причину именно такого ответа.

  • Для доступных страниц обязателен код ответа 200.
  • Для несуществующих страниц верный код ответа – 404.

Получить код ответа можно, например, тут: http://mainspy.ru/otvet_servera. Проверяется главная и несколько внутренних страниц. Все они должны возвращать код ответа 200 OK:

os1.png

Проверяются несколько вариантов страниц с заведомо неверными адресами. При обращении к таким должен возвращаться код ответа 404:

os2.png

Нередко встречаются CMS, где страница «Документ не найден» не отдаёт 404 код ответа сервера. Необходимо провести соответствующую доработку CMS.

Проверка определения главного зеркала сайта

Зеркалами считаются сайты, являющиеся полными или частичными копиями. Копии определяются по совпадению контента на страницах с одинаковыми адресами (site1.com/page.html и site2.com/page.html). Например, в большинстве случаев хосты site.com и www.site.com являются зеркалами, так как контент страниц, доступных по одинаковым адресам, не отличается.

Сайт должен быть доступен только по одному из вариантов обращения: либо с указанием папки www, либо без этой папки (www.seonews.ru или seonews.ru). Второстепенное зеркало должно отдавать 301 код ответа сервера с перенаправлением на главное зеркало. Если сайт проиндексирован, то рекомендуется оставить ту версию, которую избрал робот поисковой системы.

На данном этапе проверяются коды ответа зеркал сайта (с www, без www, с https, без https). Код ответа 200 должен быть только у одного варианта, все другие должны отдавать 301 код ответа с перенаправлением на главное зеркало:

os3.png

Анализ способов формирования URL страниц

URL-адреса множества динамических сайтов состоят из доменного имени и перечисления параметров, отвечающих за формирование содержимого страницы (site.ru/catalogue.php?http_id_part=174&http_id_prod=623), часто встречаются псевдостатичные адреса, где параметры заменяются на человекочитаемые фрагменты (site.ru/catalog/9-dzhinsy-briuki).

Некоторые параметры в URL-адресе являются незначимыми, т.е. с ними или без них страница содержит одну и ту же информацию. Это приводит к тому, что информация на сайте начинает дублироваться. Поисковые системы негативно относятся к этой ситуации, так как дублирование контента приводит к росту индексной базы, при этом объём полезной информации остаётся прежним.

Если на сайте есть посещаемость, список всех параметров можно получить в соответствующем разделе Яндекс.Метрики.

Вот так выглядит список параметров среднестатистического сайта на Bitrix.

os4.png

На картинке выше приведён список из 38 параметров, которые встречаются в адресах страниц сайта. Большинство параметров являются техническими (например, sphrase_id – подсветка слов в результатах поиска, back_url_admin – адрес предыдущей страницы при неверной авторизации) и не предполагается индексация страниц их содержащих.

Если сайт не имеет посещаемости, рекомендуем выгрузить его одной из программ: Xenu, Screaming Frog SEO Spider или NetPeak Spider (далее программы сканирования сайта) и обработать полученный список адресов, выявив все допустимые параметры.

На данном этапе необходимо проанализировать, какой вклад вносит каждый параметр в формирование содержимого страницы. Если добавление параметра не приводит к появлению дополнительного контента, он добавляется в robots.txt для исключения индексации таких адресов.

Поиск малоинформативных страниц

Малоинформативные страницы содержат недостаточное количество информации для того, чтобы быть проиндексированными поисковыми системами или высоко ранжироваться по соответствующим поисковым запросам. Необходимо либо запретить индексацию таких страниц, либо дополнить страницы текстовым контентом.

Производится поиск страниц, которые не содержат никакой полезной информации, кроме, например, меню сайта. Найти страницы можно, воспользовавшись программой сканирования, отсортировав документы по размеру.

Поиск дублирования главной страницы

Часто встречается ситуация, когда главная страница сайта дублируется по внутренним адресам. Например, в CMS Bitrix главная страница дублируется при добавлении к доменному имени index.php. Например: https://www.seonews.ru/index.php - эта страница не закрыта в robots.txt и может быть проиндексирована поисковыми системами:

os5.png

На данном этапе необходимо найти возможные способы дублирования главной страницы и исключить их индексацию.

Поиск дублирования внутренних страниц по разным адресам

Аналогично главной странице часто встречаются дубликаты внутренних страниц сайта. Приведём несколько возможных примеров.

  1. Одинаковые по содержанию страницы, которые отличаются только символом “/” в конце URL-адреса.

  1. Страницы, доступные как по ЧПУ-адресам, так и по адресам с параметрами. Когда равнозначны site.com/company/overview и site.ru/?cat=2.

  1. Появление одинаковых страниц при удалении части адреса: site.com/company/overview или site.com/overview.

  1. Дублирование страниц при добавлении имени файла (в частности актуально для Bitrix). Когда равнозначны site.ru/calendar/ и site.ru/calendar/index.php.

  1. Дублирование за счёт незначимых параметров в URL (описано выше).

Необходимо изучить сайт, с целью установить принципы формирования адресов страниц. Это позволит выявить потенциальные места возникновения дублирования одинаковых страниц по разным адресам.

Программой сканирования сайта можно воспользоваться как из одним из способов поиска дублей контента. В полученной структуре можно найти страницы одинакового размера.

Поиск ошибки характерной для мультиязычных сайтов

Если на сайте есть разные языковые версии, для каждой из них должен быть написан собственный уникальный контент. Необходимо определить, используется ли на сайте мультиязычность, и проверить, какие тексты расположены на других языковых версиях. Если содержимое дублируется, необходимо эти дубли удалить и наполнить разделы соответствующими текстами.

Анализ страницы результатов поиска

Встречается ошибка, когда результаты поиска по сайту открыты для индексации роботами поисковых систем. Страницы не закрыты в robots.txt и отдают код ответа сервера 200. При этом для каждого поискового запроса формируется уникальный url. Таким образом поисковый робот индексирует контент, который прямо запрещён в лицензии поисковых систем.

Необходимо определить, как формируется страница с результатами поиска. Если поисковый запрос содержится в url, такие страницы должны быть закрыты в robots.txt.

Поиск одинаковой (отсутствующей) метаинформации

Тег title (метаинформация) – основной из факторов ранжирования страниц в поисковых системах. Содержимое этого тега выводится в заголовке страницы.

Каждая страница должна иметь уникальный заголовок, релевантный её содержимому. В этом случае сайт потенциально способен привлекать большее количество пользователей за счёт повышения видимости в поисковых системах.

Необходимо выявить принципы формирования метаинформации на сайте. Если существуют правила, из-за которых выводится одинаковая или отсутствующая метаинформация, необходимо внести соответствующие изменения в CMS.

Помимо малоэффективного ручного поиска таких страниц можно воспользоваться программой для сканирования сайта, отсортировав результат по полученным title. Вторым способом является построение пользовательского отчёта в Google Analytics (если на сайте есть посещаемость и открыт доступ к статистике):

os6.png

В результате получаем следующую таблицу, где приведена сводка тайтлов всех страниц сайта.

os7.png

Анализ количества внешних ссылок

Количество внешних ссылок – важный показатель качества сайта. Если сайт ссылается на множество других ресурсов, не соответствующих его тематике, это может послужить причиной для санкции со стороны поисковых систем.

Необходимо определить количество внешних ссылок, внимательно проверить ресурсы-получатели. Рекомендуется по возможности максимально сократить количество прямых исходящих ссылок, которые бы не являлись рекомендацией для пользователя сайта. Внешние ссылки допустимы, но должны дополнять и расширять контент.

Анализ текстового наполнения сайта

При поисковом продвижении принципиально, чтобы на сайте были размещены уникальные тексты, имеющие ценность для целевой аудитории сайта.

Необходимо проверить максимальное количество текстов на сайте на уникальность. Не стоит начинать поисковое продвижение, если на сайте нет оригинального контента, который не продублирован в открытой части Интернета. Существует множество сервисов, которые позволяют проверить как отдельные страницы, так и сайт в целом.

Анализ качества точек входа

Под качеством точек входа понимаются численные характеристики, описывающие первое взаимодействие пользователя с сайтом. Чаще всего это показатель отказов – сколько пользователей посмотрели только одну страницу – и время просмотра страницы.

Необходимо проверить поведенческие характеристики точек входа на сайт. Чрезмерное количество отказов или значения, сильно отличающиеся от средних по сайту, должны насторожить. Необходимо выявить причину такого поведения пользователей и при необходимости внести коррективы.

Поиск разметки микроформатами

Микроформаты – это форматы семантической разметки (X)HTML-страниц, позволяющие сделать контент доступным для обработки роботами. Микроформаты дают возможность явно указать смысловое значение отдельных блоков текста, дополнив существующую HTML-разметку специальными блоками.

Необходимо проверить разметку соответствующими микроформатами контента на сайте (адреса, изображения, видео и т.д.). Внедрение микроформатов позволит улучшить видимость сайта в вертикальных поисках.

Приведённый выше базовый перечень проверок позволит выявить большую часть проблем веб-ресурса, а также позволит корректно проиндексировать сайт в поисковых системах.

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Валентин Брысин
    1
    комментарий
    0
    читателей
    Валентин Брысин
    больше года назад
    Если на сайте есть разные языковые версии, для каждой из них должен быть написан собственный уникальный контент. - вот это совершенно непонятно. Каким образом например у карточки товара может быть уникальный контент на разных языках? И главное - для чего?
    -
    0
    +
    Ответить
    • Олег Сахно
      483
      комментария
      0
      читателей
      Олег Сахно
      Валентин Брысин
      больше года назад
      Под уникальностью понимается контент на языке соответствующем заявленному домену. Не редки случаи, когда одинаковые русскоязычные тексты, как на английской, так и на немецкой версии сайта.
      -
      0
      +
      Ответить
  • Skarui
    96
    комментариев
    0
    читателей
    Skarui
    больше года назад
    SEOnews, закрой дубли
    -
    1
    +
    Ответить
    • Олег Сахно
      483
      комментария
      0
      читателей
      Олег Сахно
      Skarui
      больше года назад
      Битрикс, во всей красе: yandex.ru/search/?text=site%3Aseonews.ru%20inurl%3Aback_url_admin&lr=213 :)))
      -
      0
      +
      Ответить
  • Skarui
    96
    комментариев
    0
    читателей
    Skarui
    больше года назад
    Хотелось бы еще дополнить тему: битыми ссылками, что 404я нормально отображается и желательно была бы забрендирована, имеется фавинончик, ну и затронуть чутка скорость: сжатие картинок и кода, на сервере настройка сжатия и кэширования, что корректно настроен Last-Modified и сервер отдает 304й ответ если страница не изменялась. Ну как то так.
    -
    2
    +
    Ответить
    • Олег Сахно
      483
      комментария
      0
      читателей
      Олег Сахно
      Skarui
      больше года назад
      Несомненно, статья не содержит ответы на все вопросы :) Подразумевалось что это текст для новичка. Своего рода отправная точка.
      -
      0
      +
      Ответить
  • Владимир Сюткин
    17
    комментариев
    0
    читателей
    Владимир Сюткин
    больше года назад
    "Если сайт не имеет посещаемости, рекомендуем выгрузить его одной из программ: Xenu, Screaming Frog SEO Spider или NetPeak Spider (далее программы сканирования сайта) и обработать полученный список адресов, выявив все допустимые параметры."

    Есть еще чудесная программа ComparseR - ею выкачиваю сайты до 500 000 страниц и даже больше.
    -
    1
    +
    Ответить
  • Александр Пономарь
    7
    комментариев
    0
    читателей
    Александр Пономарь
    больше года назад
    Господа, или я чего-то не понимаю или это какой-то лютый фэйл, но:

    1. Зачем в аддурилку добавлять техническую страницу www.seonews.ru/index.php?
    2. Почему она не редиректит на основную?))))
    -
    0
    +
    Ответить
    • Олег Сахно
      483
      комментария
      0
      читателей
      Олег Сахно
      Александр Пономарь
      больше года назад
      Так наоборот же, ошибка показана :) Собственно пример seonews я и взял, потому-что показалось комичным :)

      Ниже и написано "На данном этапе необходимо найти возможные способы дублирования главной страницы и исключить их индексацию."
      -
      2
      +
      Ответить
    • Владимир Сюткин
      17
      комментариев
      0
      читателей
      Некогда объяснять! Индексируй index.php и заодно index.html !!! :-)
      -
      -1
      +
      Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
15
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
demimurych
8
комментариев
0
читателей
Полный профиль
demimurych - о господи. это для регионального сайта? в яндексе? где у сайта по региону конкурентов меньше чем выдачи на двух страницах из которых перваш это реклама москвы? потешно ей богу. ктото чего то не понеимает.
Зачем подменять контент на сайте: разбираем инструмент и развенчиваем мифы
Дмитрий Сульман
4
комментария
0
читателей
Полный профиль
Дмитрий Сульман - Все верно, об этом я и говорю. У крупных компаний есть много данных и они имеют доступ к дорогим технологиям и решениям для персонализации контента. Топовые западные сервисы для персонализации, такие как RichRelevance или Dynamic Yield, стоят от нескольких тысяч до десятков тысяч долларов в месяц. Понятно, что малый бизнес не может себе этого позволить. Да даже если бы чисто теоретически и мог, то это вряд ли бы имело хоть какой-то смысл. Во-первых, у малого бизнеса недостаточно данных, чтобы подобные алгоритмы персонализации начали эффективно работать, а во-вторых, тот профит, который МСБ получит от персонализации, никогда не покроет таких расходов. Мы же предлагаем решение, доступное как раз для малого и среднего бизнеса. При этом наше решение комплексное: МультиЧат - это одновременно и инструмент для персонализации, и для коммуникации.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
Монетизируйте свой сайт вместе с VIZTROM
VIZTROM
3
комментария
0
читателей
Полный профиль
VIZTROM - Добрый день! Так как мы сейчас работаем в приватном режиме, Вы врятли можете объективно оценить нашу рекламную площадку. У нас будет официальный запуск 3 марта для вебмастеров. Приглашаем Вас присоединиться к нам и лично посмотреть наш функционал.
Digital-разговор: Михаил Шакин про SEO, Google и заработок в интернете
Анна Макарова
368
комментариев
0
читателей
Полный профиль
Анна Макарова - Подготовим ) Пока предлагаю почитать интервью с Денисом Нарижным из той же серии. Там стенограмма =) www.seonews.ru/interviews/digital-razgovor-denis-narizhnyy-pro-ukhod-iz-seo-i-zarabotok-na-partnerkakh/
Как удвоить выручку за счет продвижения в поиске. Кейс coffee-butik.ru
Максим Боровой
3
комментария
0
читателей
Полный профиль
Максим Боровой - Последний вопрос (извиняюсь за количество) - почему на "В корзину" стоит Nofollow. Осознанно для распределение весов?
Почему вы торгуетесь за показы, даже если платите за клики
Константин Требунских
3
комментария
0
читателей
Полный профиль
Константин Требунских - Дмитрий, спасибо за комментарий, хорошие замечания!) 1. "Какая-то подмена понятий. CPM у “Original Works” взлетает не от того, что у них РАВНАЯ цена клика, а оттого, что вы "с потолка" поставили ему CPC в 2 раза выше, чем был. Логично, что и CPM в 2 раза увеличился (см. формулу выше). Если бы вместо 5 вы всем решили поставить 2 или 1.5, то он бы наоборот уменьшился." Вы правы, что CPM уменьшился бы. В первой и второй табличке берем одинаковое количество показов (именно за них мы платим сначала) и считаем данные, в том числе CPC. Мы поставили рекламодателей в одинаковые условия и посмотрели их эффективность в разрезе цены клика при одинаковом количестве показов. А затем изменился аукцион, и, взяв получившиеся данные по кликам и CTR, мы поставили рекламодателей тоже в одинаковое положение, но уже по цене клика, ведь мы теперь за него платим. Посчитали эффективность в разрезе уже CPM. Тут если и есть подмена понятий, то она точно не моя, а рекламных систем, потому и обозначена, как "ход конем" :) 2. "Ок, смотрим таблички "как оно было" и "как оно стало". Было: система суммарно за 2 000 денег показала рекламу 4 000 раз. Стало: система суммарно за 2 000 денег показала рекламу 13 500 раз. Сомнительный профит для системы." Вы правы, именно поэтому для рекламодателей с низким CTR ставка будет выше, чем для рекламодателей с высоким CTR. Просто чтобы система окупилась. Потому что, системе выгодно продавать показы тем, у кого кликов будет больше (ведь они платят за клик). По факту реальные цены за клик в аукционе будут как в таблице 2. Но ранжирование системы проводят по таблице 5.
Где SEO-специалист может углубить свои навыки в области поискового продвижения
Ирина Полинина
1
комментарий
0
читателей
Полный профиль
Ирина Полинина - Полезно! Спасибо
Кейс Hansa: как увеличить органический трафик в 1,5 раза
Алексей Порфирьев
3
комментария
0
читателей
Полный профиль
Алексей Порфирьев - Спасибо за замечание, о данной проблеме известно, но она не стоит в порядке приоритетных. Вопрос, на самом деле, дискуссионный. В тематике конкуренция не настолько велика, а в топе выдачи часто встречаются сайты с более серьёзными техническими проблемами. По этому, именно в статьях, более важно работать над релевантностью контента, отношением времени пользователя на странице к уровню доскрола, и различным пользовательским функционалом (рейтинг материала, просмотры и т. п.).
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
368
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
139
Комментариев
121
Комментариев
108
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
85
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!