Мастерство использования robots.txt файлов

Россия+7 (495) 960-65-87
Шрифт:
0 5452

Упростить работу по оптимизации можно используя файлы robots.txt . Они представляют собой простые файлы, указывающие роботам, паукам поисковой системы, какие файлы индексировать в базу данных, а какие нет. В данной статье будут представлены доказательства важности robots.txt для процесса оптимизации, а также возможные последствия не использования или использования неверно составленных файлов robots.txt.

Как поисковые системы реагируют на Robots.txt

Определенной модели поведения поисковых систем при встрече с файлами robots.txt во время их обхода нет. Достаточно проследить информацию из web stats, чтобы понять востребованность файлов robots.txt у поисковых систем. Большинство пауков начинают обход сайта, в первую очередь, с изучения именно этих файлов. При отсутствии robots.txt-файлов, большинство поисковых роботов будут обходить web-сайты, оставляя их не проиндексированными. Пренебрежение файлами robots.txt повлечёт за собой негативные последствия, однако существуют и более отрицательные результаты.

Поведение большинства крупных поисковых роботов и пауков при чтении файлов robots.txt разнообразно.


MSNbot
Поисковый робот системы MSN называется MSNbot. Он довольно активно обходит web-сайты. Некоторым web-мастерам это нравится, и они пытаются этим пользоваться. Другие не видят никаких причин тратить старания на поисковые системы, считая, что это не повлияет на увеличение трафика. MSNbot не станет обходить сайт, если он (сайт) не представлен файлами robots.txt. Присутствие подобных файлов в базе данных увеличивает интерес поискового робота к сайту.

Несколько месяцев назад MSN получила много жалоб на то, что MSNbot игнорирует директории, прописанные в файлах robots.txt. Разработчики рассмотрели проблему и внесли некоторые изменения, позволяющие контролировать подобное поведение роботов.


Yahoo’s Inktomi Slurp
Yahoo легализовал использование поискового робота Inktomi, теперь известного как Slurp. Кажется, что Inktomi/Yahoo's Slurp перерабатывает большой объем информации за пару дней, исчезает, возвращается, перерабатывает намного больше и вновь исчезает. Однако без файлов robots.txt его функционирование представляется более медленным, порой не эффективным, т.к. он не может проникнуть глубоко в структуру сайта.


Googlebot
На сайте Google представлены рекомендации и необходимые инструкции по правильному использованию подобных файлов. Поисковым оптимизаторам хорошо известно, что инструкции Google для web-мастеров - это больше, чем просто пошаговые рекомендации по оптимизации сайтов в поисковых системах. Так что, если файлы robots.txt упоминаются Google, значит, использовать их стоит. Без них Googlebot обходит сайты не достаточно эффективно.


IA_Archiver
Это робот поисковой системы Alexa. Охарактеризовать его можно как агрессивного «паука» с большим «аппетитом», вызываемым новой информацией, но, несмотря на это, очень любезным и обходительным. Он ограничивает свой обход до пары сотен страниц за один раз и функционирует достаточно медленно чтобы не перегружать сервер. Этот робот проводит свой обход в течение нескольких дней. Очередное появление робота ia_archiver можно определить, проанализировав статистику сайта. Он полностью выполняет команды и указания robots.txt-файлов.

Существует много пауков и роботов, демонстрирующих другое поведение во время обхода сайта. «Хорошие» будут следовать файлам robots.txt, «плохие» - нет. Далее будут рассмотрены некоторые способы, позволяющие избежать проблем с поисковыми роботами и использовать помощь файлов robots.txt.

Усовершенствованные команды и свойства файлов robots.txt

Основной набор команд, составляющих файлы robots.txt, представляют собой информацию двух видов: команды и характеристики. Следует помнить, что не все поисковые роботы понимают эти команды. Важно знать, какие именно не справляются с этим.


Приостановка индексирования
Некоторые роботы известны тем, что обходят веб-страницы с мгновенной скоростью, тем самым, становясь причиной того, что веб-серверы ограничивают доступ к ip-адресам сайтов другим роботам, активизируя специальное программное обеспечение. Когда робот начинает слишком быстро считывать информацию из базы данных, эта программа начинает блокировать работу поисковой системы.

Не обязательно наказывать всех поисковых роботов, используя эти программы, контролировать действия более послушных роботов можно с помощью команды приостановки индексирования: crawl delay.

User-agent: MSNbot
Disallow: /

С помощью другой команды robots.txt можно точно определить время приостановки (в секундах), после окончания которого, MSNbot приступит к дальнейшему индексированию страниц. Она (команда) выглядит следующим образом:

User-Agent: MSNbot
Crawl-Delay: 20

Другими поисковыми роботами, поддерживающими эту команду, являются Slurp, Ocelli, Teoma/AskJeeves, Spiderline. Официально Googlebot считается воспитанным роботом и следует данной команде, т.к. зачастую в этом нет необходимости. Если Вы не уверенны, поддерживается ли эта команда роботами той или иной поисковой системы, на помощь придет группа технической поддержки этой поисковой системы. Получить контактную информацию можно на сайте Robots.Txt.org, там же Вы найдете перечень многих поисковых роботов и указание на то, к какой поисковой системе они относятся. Например, не многие знают, что Slurp принадлежит Yahoo, а Scooter - AltaVista.


Мета-тэг инструкции
Благодаря широкому распространению поисковых роботов, перечислить всех с описанием их преимуществ и недостатков не представляется возможным. Многие малоизвестные из них не учитывают robots.txt-файлы. Что делать в этом случае? Многие веб-мастера добавляют специальные команды к мета-тэгам. Подобно всем остальным мета-тэгам, такие тэги ставятся в секции

.

< meta name="robots" content="noindex">, данный тэг сообщает поисковому роботу не индексировать страницу.

< meta name="robots" content="noindex,nofollow">, тэг также запрещает роботу индексировать и анализировать его на ссылки.


Ниже представлен список возможных тэгов:

< meta name="robots" content="index,follow">
< meta name="robots" content="noindex,follow">
< meta name="robots" content="index,nofollow">
< meta name="robots" content="all">

К сожалению, нет гарантии того, что каждый поисковый робот будет следовать данной команде. В случае непослушания остается одно - найти в лог-файлах сервера IP-адрес, с которого робот заходит на Ваш сайт, и просто запретить ему доступ к Вашей базе данных.


Ограничение потребляемых ресурсов
Другая проблема, связанная с роботами поисковых систем, - это необходимые для их работы ресурсы. Робот может израсходовать чуть ли не весь Ваш трафик всего лишь за один визит на сайт. Таким образом, индексирование обернется для Вас дорогим удовольствием.

Отсутствие файла robots.txt может стать причиной ошибки № 404, когда поисковая система просто не может найти нужную страницу. Размещение на сайте страницы, предназначенной для вывода информации об ошибке 404, также повлечет расход трафика. Поэтому небольшие robots.txt-файлы, не требующие значительных затрат, могут стать наиболее приемлемым решением проблемы.

Некоторые веб-разработчики предлагают другой способ, позволяющий сократить затраты трафика поисковым роботом, – это тег "revisit-after", например:

< meta name="revisit-after" content="15 days">

Однако не все поисковые системы (например, Google) поддерживают эту программу. И если Вы заметили, что Googlebot слишком часто заходит в Вашу базу данных, поглощая немало трафика, следует обратиться к справочным страницам Google с просьбой о том, чтобы Googlebot реже посещал сайт.

Можно также закрыть доступ к базе данных для определенных роботов и открыть его для других или прописать индивидуальную инструкцию для каждого робота . Работа с robots.txt отличается гибкостью.

Использование robots.txt в целях обеспечения общей безопасности

Многим известна история компании Perfect 10, которая обвинила корпорацию Google в незаконном использовании информации, а точнее, фотографий с их сайта. Согласно BusinessWire.com, прикрываясь статусом поисковой системы, Google незаконно распространил тысячи фотографий, принадлежащих Perfect 10, и этим привлек на свой сайт огромный трафик, сопоставимый с прибылью в сотни тысяч долларов, по праву предназначенных для Perfect 10. Как утверждает Perfect 10, даже после обвинений в посягательстве на "частную собственность", Google и не думает прекращать свою не корректную деятельность и продолжает распространять фотографии, не спрашивая на то разрешения.

Самое интересное в этой ситуации то, что виноваты, как ни странно, сами Perfect 10. Они не проинструктировали поисковую систему о том, что использование фотографий запрещено. Две простые строчки robots.txt-файла в базе данных помогли бы избежать подобных проблем.

User-agent: Googlebot-Image
Disallow: /images

В заключение отметим: для того чтобы сохранить что-либо в тайне, нужно использовать логины и пароли! Не хотите, чтобы поисковая система проиндексировала Ваш сайт, используйте robots.txt и специальные мета-теги. Robots.txt- файлы - эффективный метод контроля, только не забывайте, что безопасность Вашей информации - в Ваших руках!

По информации www.seochat.com

Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Поделиться 
Поделиться дискуссией:
Отправить отзыв
    ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
    SEOnews и Serpstat запускают конкурс для интернет-маркетологов
    Marina Lagutina
    1
    комментарий
    0
    читателей
    Полный профиль
    Marina Lagutina - Добрый день! Видимо я из тех, кто пытается последней вскочить в уходящий поезд. Ночью написала статью на тему "обзор инструментов контент-маркетинга". Своего блога нет. Отправила вам не мейл. Я еще могу у вас разместиться или искать, кто возьмет статью к себе в блог?
    «Я оптимизировал сайт, а он не в ТОП! Что делать?»
    Павел Горбунов
    7
    комментариев
    0
    читателей
    Полный профиль
    Павел Горбунов - Как можно в инструменте tools.pixelplus.ru/tools/text-natural сравнить текст со страницы конкурента и со своей страницы? Я вижу возможность только для проверки одного урла.
    Влияние HTTPS на ранжирование региональных поддоменов в Яндексе
    Екатерина Иванова
    1
    комментарий
    0
    читателей
    Полный профиль
    Екатерина Иванова - Посмотрите на сколько упал трафик и на сколько потом вырос:упал на 10-20% на 1 месяц, а вырос в итоге в 5 раз. Одним мартовским трафиком всё падение перекрыли. Или можно ждать Яндекс неопределённое количество времени со стартовым уровнем трафика. Упущенные возможности и всё-такое.
    Монетизация сайта. Как, когда, сколько?
    Кирилл
    1
    комментарий
    0
    читателей
    Полный профиль
    Кирилл - Ой да мне плевать что там с ссылками баннеры, доход хороший при размещении не на всех страницах сайта, никаких санкций от поисковиков нету, плохих тематик в рекламе тоже - так что все ок!
    Мир глазами поисковых систем
    Александр Рунов
    7
    комментариев
    0
    читателей
    Полный профиль
    Александр Рунов - Какой регион, если не секрет? В Мск, в ряде ВК тематик (в тех же "окнах" или "колесах"), без работы с внешними факторами по ВЧ запросам в ТОП не выплывешь. Хотя в большинстве направлений вполне реально.
    Google.ru внесли в реестр запрещенных сайтов
    Гость
    1
    комментарий
    0
    читателей
    Полный профиль
    Гость - Гон, все работает и будет работать. Да и пусть банят, будет как с рутрекером.
    Инфографика: самые распространенные SEO-ошибки Рунета
    Alex Wise
    3
    комментария
    0
    читателей
    Полный профиль
    Alex Wise - Спасибо, Женя, за рекомендацию! :) Андрей, чтобы понять, какой программой пользоваться, нужно сделать несколько вещей: 1. Попробовать обе: у нас в Netpeak Spider бесплатный триал на 14 дней с полным функционало; у SFSS до 500 URL всегда бесплатно, но с ограниченным функционалом. 2. Понять свой стиль работы – если вы любите полный контроль и из-за этого более высокую скорость пробивки, тогда выбирайте Netpeak Spider. Если для вас не так важна скорость и количество пробитых URL, то можно остановиться на SFSS. 3. Определиться с нужными функциями: их в обоих программах очень много и как в Netpeak Spider есть уникальные, так и в SFSS есть свои уникальные. Мы всегда ориентируемся на то, чтобы быстро и чётко показать ошибки – для этого у нас вся таблица красится в соответствующие цвета. Думайте!) И, если что, обращайтесь с вопросами – мы будем рады помочь!)
    Конкурс: угадайте пятерку лидеров рейтинга «SEO глазами клиентов 2017»
    Оля
    1
    комментарий
    0
    читателей
    Полный профиль
    Оля - 1 Ingate 2 Wezom 3 Bynjg vtlbf 4 seo energy 5 директ лайн
    SEMrush: факторы ранжирования в Google в 2017 году
    Анна Макарова
    298
    комментариев
    0
    читателей
    Полный профиль
    Анна Макарова - Уважаемый S1, я тоже понимаю, что есть такие люди, которые заметив допущенную неточность несутся на всех парусах продемонстрировать "силу" своего ума. Спасибо вам за пристальное внимание. Это поможет нам быть лучше.
    Интеграция call tracking и CRM: углубленный анализ данных о звонках и продажах
    Денис
    2
    комментария
    0
    читателей
    Полный профиль
    Денис - Какой смысл вообще в облачных CRM, обрезанный фугкционал, свое дописать невозможно, слив клиентов другим компаниям. Серверные бесплатные CRM куда надежней и кастамизируй как хочешь.
    ТОП КОММЕНТАТОРОВ
    Комментариев
    910
    Комментариев
    834
    Комментариев
    554
    Комментариев
    540
    Комментариев
    483
    Комментариев
    373
    Комментариев
    298
    Комментариев
    262
    Комментариев
    221
    Комментариев
    171
    Комментариев
    156
    Комментариев
    137
    Комментариев
    121
    Комментариев
    97
    Комментариев
    97
    Комментариев
    95
    Комментариев
    80
    Комментариев
    77
    Комментариев
    67
    Комментариев
    60
    Комментариев
    59
    Комментариев
    55
    Комментариев
    53
    Комментариев
    52
    Комментариев
    45

    Отправьте отзыв!
    Отправьте отзыв!