×
Россия +7 (495) 139-20-33

Базовые SEO-настройки DEV- и LIVE-серверов

Россия +7 (495) 139-20-33
Шрифт:
0 2031

Задача этого материала – предупредить две больших SEO-боли корпоративных клиентов: 

  1. Индексация DEV-сервера. 
  2. Проблемы с индексацией LIVE-сервера. 

Также в статье заодно затронули базовые настройки CMS. 

Приведенный ниже список можно расширять и дополнять, но его малый объем – как раз большое преимущество. Мы в компании договариваемся, что все разработчики и системные администраторы знают и понимают все эти пункты и учитывают их в своей работе всегда. Задача SEO – чекать, чтобы это все было учтено. 

Для DEV 

Настройка сервера DEV 

С этими настройками у нас работают все DEV-серверы, на которых лежит новый функционал, новые (невыпущенные) релизы, проекты, которые создаются с нуля. В общем, все то, что разработано, но еще не опубликовано. 

Главное: все указанные ниже настройки должны работать только на DEV и никоим образом не переноситься на LIVE.  

  1. Предавторизация по HTTP – никто посторонний не должен иметь доступ к закрытой версии. По сути – это главный и самый ключевой момент. Но рассмотрим дополнительные меры, если авторизация слетит. А такое бывает. 
  2. На каждой странице мета-тег < meta name="robots" content="noindex, nofollow" >. 
  3. Robots.txt с содержанием:

    User-agent: *

    Disallow: / 

  4. Множественные слеши и одиночный слеш после URL редиректят на «без /». 
  5. Настройка редиректа всех URL с «/» в конце на «без /» в конце домена. 
  6. Сайт с www редиректит на без www. 
  7. Сайт работает на https. 
  8. Http редиректит на https. 

Запуск нового проекта с DEV (сервер и CMS) 

Этот чек-лист мы также передаем своим разработчикам. Это святая святых в моменте, когда мы разработали новый веб-сайт и выводим его в лайв (первый запуск). 

Важно изменить: 

  1. Заменить/проверить домен в rel=canonical на всех страницах на актуальный LIVE домен. 
  2. Актуализировать robots.txt с SEO-командой (он всегда адресный для каждого сайта). Должен быть доступен по адресу site.ru/robots.txt. 
  3. Заменить на LIVE тег на всех страницах:

    с < meta name="robots" content="noindex, nofollow" >

    на < meta name="robots" content="index, follow" > 

  4. Генерация карты сайта: sitemap.xml. Карта должна быть доступна по адресу site.ru/sitemap.xml с актуальными страницами и корректным live доменом в URLs. 
  5. HomePage доступна только по одному адресу – доменное имя. Никаких сайт.ру/index.php, сайт.ру/home и т.д. 
  6. Множественные слеши и одиночный слеш после URL редиректят на «без /». 
  7. Настройка редиректа всех URL с «/» в конце на «без /» в конце домена. 
  8. Сайт с www редиректит на адрес без www. 
  9. Сайт работает на https. 
  10. Http редиректит на https. 

Обновление с DEV на LIVE 

Теперь очень кратко, за чем мы следим, когда на LIVE выезжает новый релиз. Что надо проверить, что учесть при выкатке обновлений на LIVE. 

При выкатке обновлений все настройки сервера и контента на запрет индексации должны оставаться только в рамках DEV. Вот что не должно поехать с обновлением на LIVE: 

  1. robots.txt 
  2. < meta name="robots" content="noindex, nofollow" > 
  3. http-предавторизация 

Для LIVE 

Теперь непосредственно про LIVE-сервер. Что важно настроить на нем и за чем следить. Это очень базовые моменты – то, что мы требуем от разработчика как знание. 

Настройка сервера для LIVE 

  1. Настройка редиректа всех URLs с «/» в конце на «без /» в конце домена. На самом деле вы можете сделать наоборот, это не принципиально. Важно чекнуть этот момент и не допустить, чтобы работали URL-адреса и со слешем на конце, и без слеша параллельно. 
  2. Множественные слеши после URL редиректят на БЕЗ слеша. 
  3. Сайт с www редиректит на без www. 
  4. Http редиректит на https. 

Базовые SEO-настройки CMS 

Что надо знать каждому программисту, когда он создает новый веб-сайт. 

  1. Использовать пререндеринг, если ключевые элементы сайта сделаны на JavaScript. Так мы избегаем проблем с индексацией ключевых моментов. 
  2. Использовать мета-тег на всех страницах (кроме специально исключенных SEO-командой) < meta name="robots" content="index, follow" > 
  3. Использовать канонические ссылки rel=canonical с учетом протокола HTTPS. 
  4. Проследить, что страницы пагинации имеют тег < meta name="robots" content="noindex, follow" >. Понимаю, что это очень спорный момент. Вы можете делать так, как считаете правильным. Важно лишь прописать адресные условия для страниц пагинации. Если они вообще у вас будут. 
  5. Проверить наличие robots.txt с дефолтным содержанием самой CMS + дописать

    Под User-agent: *

    Disallow: /*?

    Sitemap: sitemap.xml (адрес к сайте карта). 

  6. Проследить, что HomePage доступна только по одному адресу – доменное имя. Никаких сайт.ру/index.php, сайт.ру/home и т.д. 

Список специально сделан кратким, так как мы требуем от разработчиков и сисадминов знания и понимания всех этих пунктов. Важно, чтобы backend и сервер учитывали это при работах. 

Если у вас есть вопросы или хотите уточнить информацию, пишите, пожалуйста, в комментариях.

(Голосов: 21, Рейтинг: 4.57)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Ссылочный апдейт Google: что изменится для SEO-специалистов в рунете
Тимур
6
комментариев
0
читателей
Полный профиль
Тимур - Понял, спасибо за информацию.
Как продвинуть сайт по коммерческим запросам в ТОП-10 с помощью ресурса Reddit
Roman Saev
9
комментариев
0
читателей
Полный профиль
Roman Saev - Мне удалось за последнее время неплохо продвинуть свой сайт и трафик набрать. Использовал реддит площадку, а так же сервис zenlink.ru для создания ссылочной массы. Как итог, удалось привлечь целевых посетителей и значительно поднять конверсию моего ресурса.
3 основные ошибки, которые допускают владельцы сайтов при продвижении
Виктор Гаврюков
31
комментарий
1
читатель
Полный профиль
Виктор Гаврюков - Не обращай внимания_) Если у тебя хороший ресурс, то ты будешь первоисточником, и все кто своровал, автоматически начнут на тебя ссылаться, точнее, так гугл будет считать_)
Зарабатываем с помощью текстов: как создать уникальный контент и монетизировать сайт
Максим Зубарев
1
комментарий
0
читателей
Полный профиль
Максим Зубарев - Просто каждый должен заниматься своим делом и о нем и писать ))) сапа хороша в ссылках, вот о линкбилдинге их материалы заходят хорошо. Сапа не пишет статьи ))) Поэтому ничего удивительного
Тильда для SEO-продвижения и бизнеса: плюсы и минусы конструктора сайтов
Сергей Садовничий
2
комментария
0
читателей
Полный профиль
Сергей Садовничий - Есть страницы где 79 для мобайла / 97 для десктопа без вообще каких либо заморочек. Есть страницы на Тильда у которых показатели для мобайла 60 - и эти страницы находятся в ТОП 1-3 по всем интересующим ключам. С показателями по скорости 60 Google Search Console заявляет, что страница оптимизирована для мобильных устройств и является удобной для пользователей. Рекомендую в первую очередь делать акцент на контенте, качестве внутренней оптимизации, наличии коммерческих факторов (если это не инфо страница) и над ссылочным а уж потом пытаться подтягивать показатели по PageSpeed Insights. Но как правило страницы выходят в ТОП и необходимости добиться PageSpeed Insights за 80 нет!
Скучное, но эффективное SEO: 3 кита успешной поисковой оптимизации
Bquadro
2
комментария
0
читателей
Полный профиль
Bquadro - Не совсем так) Совет про техническую оптимизацию и структуру сайта равноценен как для коммерческого сайта, так и для информационного. Эти два правила универсальны и влияют на ранжирование в поиске вне зависимости от типа ресурса.
Как доработка структуры вывела сайт в ТОП-10 Google и увеличила трафик в 2 раза. Кейс Связной Трэвел
Дмитрий
3
комментария
0
читателей
Полный профиль
Дмитрий - Вероятнее всего было обновление Google и позиции были снижены в связи с низкой скоростью загрузки страниц (так как доработке ведутся не только по SEO, но и в целом по функционалу сайта, появляются новые скрипты). В этот период в Google Search Console увеличилось количество страниц с низкой скоростью загрузки. Мы выявили несколько проблем, которые снижают скорость загрузки страниц и выдали рекомендации по их устранению. Пока данные рекомендации находятся в работе. Также был проведен анализ EAT факторов и проверка сайта на соответствие требованиям Google к YMYL сайта, выданы рекомендации по доработке данных факторов (ждем внедрения наших рекомендаций, поделимся потом результатами).
Как оптимизировать картинки для SEO-продвижения: чек-лист
Алексей Махметхажиев
6
комментариев
0
читателей
Полный профиль
Алексей Махметхажиев - Надо упомянуть про ленивую загрузку lazy load, что её можно сделать с вредом для картинок и их индексации и можно сделать всё правильно. Есть отложка вредная.)
Рост ботных переходов на сайт: как интерпретировать и что делать
Mike
7
комментариев
0
читателей
Полный профиль
Mike - как это проверить? что товары выводится именно на основе спроса, а не по заданным алгоритмам?
Сравнительная статистика уровня жизни SEO-специалистов в семи странах, включая Россию
Рустам
1
комментарий
0
читателей
Полный профиль
Рустам - Средняя температура по больнице, подсчет даже близко не отображает действительность, особенно учитывая разность цен и уровня зп в разных частях больших стран (США, Канада, Россия)
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
114
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
94
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
62
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!