×
Россия +7 (495) 139-20-33

Мастерство использования robots.txt файлов

Россия +7 (495) 139-20-33
Шрифт:
0 9629
Подпишитесь на нас в Telegram

Упростить работу по оптимизации можно используя файлы robots.txt . Они представляют собой простые файлы, указывающие роботам, паукам поисковой системы, какие файлы индексировать в базу данных, а какие нет. В данной статье будут представлены доказательства важности robots.txt для процесса оптимизации, а также возможные последствия не использования или использования неверно составленных файлов robots.txt.

Как поисковые системы реагируют на Robots.txt

Определенной модели поведения поисковых систем при встрече с файлами robots.txt во время их обхода нет. Достаточно проследить информацию из web stats, чтобы понять востребованность файлов robots.txt у поисковых систем. Большинство пауков начинают обход сайта, в первую очередь, с изучения именно этих файлов. При отсутствии robots.txt-файлов, большинство поисковых роботов будут обходить web-сайты, оставляя их не проиндексированными. Пренебрежение файлами robots.txt повлечёт за собой негативные последствия, однако существуют и более отрицательные результаты.

Поведение большинства крупных поисковых роботов и пауков при чтении файлов robots.txt разнообразно.


MSNbot
Поисковый робот системы MSN называется MSNbot. Он довольно активно обходит web-сайты. Некоторым web-мастерам это нравится, и они пытаются этим пользоваться. Другие не видят никаких причин тратить старания на поисковые системы, считая, что это не повлияет на увеличение трафика. MSNbot не станет обходить сайт, если он (сайт) не представлен файлами robots.txt. Присутствие подобных файлов в базе данных увеличивает интерес поискового робота к сайту.

Несколько месяцев назад MSN получила много жалоб на то, что MSNbot игнорирует директории, прописанные в файлах robots.txt. Разработчики рассмотрели проблему и внесли некоторые изменения, позволяющие контролировать подобное поведение роботов.


Yahoo’s Inktomi Slurp
Yahoo легализовал использование поискового робота Inktomi, теперь известного как Slurp. Кажется, что Inktomi/Yahoo's Slurp перерабатывает большой объем информации за пару дней, исчезает, возвращается, перерабатывает намного больше и вновь исчезает. Однако без файлов robots.txt его функционирование представляется более медленным, порой не эффективным, т.к. он не может проникнуть глубоко в структуру сайта.


Googlebot
На сайте Google представлены рекомендации и необходимые инструкции по правильному использованию подобных файлов. Поисковым оптимизаторам хорошо известно, что инструкции Google для web-мастеров - это больше, чем просто пошаговые рекомендации по оптимизации сайтов в поисковых системах. Так что, если файлы robots.txt упоминаются Google, значит, использовать их стоит. Без них Googlebot обходит сайты не достаточно эффективно.


IA_Archiver
Это робот поисковой системы Alexa. Охарактеризовать его можно как агрессивного «паука» с большим «аппетитом», вызываемым новой информацией, но, несмотря на это, очень любезным и обходительным. Он ограничивает свой обход до пары сотен страниц за один раз и функционирует достаточно медленно чтобы не перегружать сервер. Этот робот проводит свой обход в течение нескольких дней. Очередное появление робота ia_archiver можно определить, проанализировав статистику сайта. Он полностью выполняет команды и указания robots.txt-файлов.

Существует много пауков и роботов, демонстрирующих другое поведение во время обхода сайта. «Хорошие» будут следовать файлам robots.txt, «плохие» - нет. Далее будут рассмотрены некоторые способы, позволяющие избежать проблем с поисковыми роботами и использовать помощь файлов robots.txt.

Усовершенствованные команды и свойства файлов robots.txt

Основной набор команд, составляющих файлы robots.txt, представляют собой информацию двух видов: команды и характеристики. Следует помнить, что не все поисковые роботы понимают эти команды. Важно знать, какие именно не справляются с этим.


Приостановка индексирования
Некоторые роботы известны тем, что обходят веб-страницы с мгновенной скоростью, тем самым, становясь причиной того, что веб-серверы ограничивают доступ к ip-адресам сайтов другим роботам, активизируя специальное программное обеспечение. Когда робот начинает слишком быстро считывать информацию из базы данных, эта программа начинает блокировать работу поисковой системы.

Не обязательно наказывать всех поисковых роботов, используя эти программы, контролировать действия более послушных роботов можно с помощью команды приостановки индексирования: crawl delay.

User-agent: MSNbot
Disallow: /

С помощью другой команды robots.txt можно точно определить время приостановки (в секундах), после окончания которого, MSNbot приступит к дальнейшему индексированию страниц. Она (команда) выглядит следующим образом:

User-Agent: MSNbot
Crawl-Delay: 20

Другими поисковыми роботами, поддерживающими эту команду, являются Slurp, Ocelli, Teoma/AskJeeves, Spiderline. Официально Googlebot считается воспитанным роботом и следует данной команде, т.к. зачастую в этом нет необходимости. Если Вы не уверенны, поддерживается ли эта команда роботами той или иной поисковой системы, на помощь придет группа технической поддержки этой поисковой системы. Получить контактную информацию можно на сайте Robots.Txt.org, там же Вы найдете перечень многих поисковых роботов и указание на то, к какой поисковой системе они относятся. Например, не многие знают, что Slurp принадлежит Yahoo, а Scooter - AltaVista.


Мета-тэг инструкции
Благодаря широкому распространению поисковых роботов, перечислить всех с описанием их преимуществ и недостатков не представляется возможным. Многие малоизвестные из них не учитывают robots.txt-файлы. Что делать в этом случае? Многие веб-мастера добавляют специальные команды к мета-тэгам. Подобно всем остальным мета-тэгам, такие тэги ставятся в секции

.

< meta name="robots" content="noindex">, данный тэг сообщает поисковому роботу не индексировать страницу.

< meta name="robots" content="noindex,nofollow">, тэг также запрещает роботу индексировать и анализировать его на ссылки.


Ниже представлен список возможных тэгов:

< meta name="robots" content="index,follow">
< meta name="robots" content="noindex,follow">
< meta name="robots" content="index,nofollow">
< meta name="robots" content="all">

К сожалению, нет гарантии того, что каждый поисковый робот будет следовать данной команде. В случае непослушания остается одно - найти в лог-файлах сервера IP-адрес, с которого робот заходит на Ваш сайт, и просто запретить ему доступ к Вашей базе данных.


Ограничение потребляемых ресурсов
Другая проблема, связанная с роботами поисковых систем, - это необходимые для их работы ресурсы. Робот может израсходовать чуть ли не весь Ваш трафик всего лишь за один визит на сайт. Таким образом, индексирование обернется для Вас дорогим удовольствием.

Отсутствие файла robots.txt может стать причиной ошибки № 404, когда поисковая система просто не может найти нужную страницу. Размещение на сайте страницы, предназначенной для вывода информации об ошибке 404, также повлечет расход трафика. Поэтому небольшие robots.txt-файлы, не требующие значительных затрат, могут стать наиболее приемлемым решением проблемы.

Некоторые веб-разработчики предлагают другой способ, позволяющий сократить затраты трафика поисковым роботом, – это тег "revisit-after", например:

< meta name="revisit-after" content="15 days">

Однако не все поисковые системы (например, Google) поддерживают эту программу. И если Вы заметили, что Googlebot слишком часто заходит в Вашу базу данных, поглощая немало трафика, следует обратиться к справочным страницам Google с просьбой о том, чтобы Googlebot реже посещал сайт.

Можно также закрыть доступ к базе данных для определенных роботов и открыть его для других или прописать индивидуальную инструкцию для каждого робота . Работа с robots.txt отличается гибкостью.

Использование robots.txt в целях обеспечения общей безопасности

Многим известна история компании Perfect 10, которая обвинила корпорацию Google в незаконном использовании информации, а точнее, фотографий с их сайта. Согласно BusinessWire.com, прикрываясь статусом поисковой системы, Google незаконно распространил тысячи фотографий, принадлежащих Perfect 10, и этим привлек на свой сайт огромный трафик, сопоставимый с прибылью в сотни тысяч долларов, по праву предназначенных для Perfect 10. Как утверждает Perfect 10, даже после обвинений в посягательстве на "частную собственность", Google и не думает прекращать свою не корректную деятельность и продолжает распространять фотографии, не спрашивая на то разрешения.

Самое интересное в этой ситуации то, что виноваты, как ни странно, сами Perfect 10. Они не проинструктировали поисковую систему о том, что использование фотографий запрещено. Две простые строчки robots.txt-файла в базе данных помогли бы избежать подобных проблем.

User-agent: Googlebot-Image
Disallow: /images

В заключение отметим: для того чтобы сохранить что-либо в тайне, нужно использовать логины и пароли! Не хотите, чтобы поисковая система проиндексировала Ваш сайт, используйте robots.txt и специальные мета-теги. Robots.txt- файлы - эффективный метод контроля, только не забывайте, что безопасность Вашей информации - в Ваших руках!

По информации www.seochat.com

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Накрутка поведенческих факторов: дорого, сложно, но можно. Если очень хочется
Oleg_bobr2012
1
комментарий
0
читателей
Полный профиль
Oleg_bobr2012 - Мда...Может Анне сразу в Яндекс написать кейсы по накрутке ПФ. Я бы такого сотрудника гнал вон.
28 способов повысить конверсию интернет-магазина
Татьяна
1
комментарий
0
читателей
Полный профиль
Татьяна - Очень действенные рекомендации представлены в статье! Всё четко расписано и легко внедряемо в работу интернет-магазинов.Удобство и наглядность+различные бонусы и скидки-именно то, что и цепляет покупателя.
Какие сайты лидировали в поиске Яндекса и Google в 2023 году
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Если что по рейтингу вы не правы, есть ядро по которому производиться оценка и вы можете по нему самостоятельно все посмотреть. Единственный объективный рейтинг по SEO. Других не знаю Ну я вам скажу что это не так и в предыдущие года сайт моего клиента попадал в рейтинг, при чем несколько раз. И я прекрасно знал еще до объявления результатов кто лидер - рейтинг прозрачный, есть фразы по которым набираются баллы. В этом году наш сайт не попал в рейтинг например и это было понятно, что не попадет (по статистике позиций)
Создали ресурс для металлургов, который позволяет следить за аналитикой рынка и осуществлять продажи
Наталья Сталь
3
комментария
0
читателей
Полный профиль
Наталья Сталь -
5 способов увидеть сайт глазами поисковика: анализируем скрытый контент и cloaking
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Сейчас клоаку прячут, так что под нее можно глянуть только с гуггловских ip. Сейчас только гуггл сервисами можно глянуть
Какие методы SEO-продвижения устарели в 2024 году
Эксперт
1
комментарий
0
читателей
Полный профиль
Эксперт - Ужасная вода. А начало "обзора" со слов - мне кажется - нечто.
Яндекс Маркет представил собственный бренд велосипедов Raskat
Анна Макарова
388
комментариев
0
читателей
Полный профиль
Анна Макарова - Для городского велосипеда 14-16 кг - вполне ок, можно сказать легкий. Почему нет? )) Понятно, что есть варианты и легче, но они уже скорее всего будут спортивного плана, где каждый грамм имеем значение.
Михаил Сливинский (Яндекс): об алгоритмах качества в поиске, сгенерированных текстах и накрутке ПФ
Анна Макарова
388
комментариев
0
читателей
Полный профиль
Анна Макарова - Интересно, из каких именно слов Михаила, вы сделали такой вывод?
Optimization 2023: текстовый анализ в 2024 году и методы увеличения релевантности страниц
Игорь
1
комментарий
0
читателей
Полный профиль
Игорь - это информация максимум уровня middle seo. что такой проходняк делает в секции hard seo когда-то великой ашмановки, еще и в исполнении токсичного инфоцыгана большая загадка)) ходил последние 5 лет на нее, но больше пожалуй не стоит
5 ошибок отдела продаж, из-за которых вы теряете клиентов
Андрей
1
комментарий
0
читателей
Полный профиль
Андрей - Крутая статья! Можно еще указать: Работу без CRM-системы - я считаю, что это основа отдела продаж. Потому что не все компании решаются на внедрение отдельно системы для отдела продаж. Но зато можно что то многофункциональное внедрить аспро.клауд или что то подобное
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
388
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
120
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!