Медленные сайты ежегодно теряют £1,73 млрд.

Россия+7 (495) 960-65-87
Шрифт:
0 2863

Google медленные сайты понижает в выдачеМедленно загружающиеся сайты наносят интернет-магазинам ущерб в размере £1,73 млрд. ежегодно,выяснила консалтинговая компания QuBit.

Тормозящие при открытии сайты ужасно раздражают и разочаровывают потенциальных покупателей. Однако интернет-магазины до сих пор не причисляют скорость загрузки онлайн-ресурса к списку задач первостепенной важности.

А зря. Исследование, проведённое QuBit, показало, что потребители с каждым годом становятся всё нетерпеливее. Если в 2006 г. среднестатистический юзер готов был ждать загрузки страницы в течение 4-х секунд, то уже в 2009 г. лимит времени его ожидания сократился вдвое – до 2-х секунд.

Согласно данным хостинговой компании Rackspace, 38% британских онлайн-покупателей отказываются от сайта или приложения, загружающегося долее 10 секунд.

Google считает сайт «медленным», если тот загружается свыше 1,5 секунды, и понижает его позицию в SERP. Поскольку только четверть (28%) пользователей идёт дальше первой страницы поисковой выдачи, перемещение сайта во вторую десятку может серьёзно сказаться на его посещаемости.

Низкая скорость загрузки приводит к потере конверсий и с мобильных устройств: 74% пользователей уходят с мобильного сайта, который загружается дольше 5 секунд.

Для того чтобы подсчитать глобальные убытки, наносимые онлайн-бизнесу проблемами с загрузкой сайтов, компания QuBit, управляемая 4-мя экс-сотрудниками Google, опросила 60 тыс. онлайн-потребителей на 80-ти сайтах различных тематик (розничная торговля, путешествия, технологии, финансы и издательская деятельность).

8% опрошенных назвали медленную загрузку сайта главной причиной отказа от совершения онлайн-покупки.

Результаты исследования показали, что время загрузки среднестатистического сайта коммерческой направленности составляет 3,5 секунды. Однако есть и такие интернет-магазины, которым на загрузку требуется не менее 15 секунд.

Ещё одним открытием QuBit стало то, что страницы с описанием конкретного продукта загружаются вдвое медленнее главных страниц интернет-магазинов.

Для наглядности компания представила график «Скорость загрузки сайтов относительно среднего показателя»:

Не спеша ставить крест на медленных сайтах, компания QuBit предлагает их владельцам перечень методов решения проблем с загрузкой:

  • Использовать сеть доставки контента (CDN): географически распределённая сеть серверов, позволяющая оптимизировать доставку и дистрибуцию контента конечным пользователям, а также увеличить скорость загрузки цифрового контента.

  • Минимизировать HTML, CCS и JavaScript: использование этих форматов снижает скорость отображения отдельных элементов в частности, и всей страницы в целом.

  • Оптимизировать изображения: картинки высокого разрешения выигрышно смотрятся на сайте, но их размер может отрицательно сказаться на скорости загрузки страницы. Для того чтобы оптимизировать изображения, надо удалить все лишние метаданные, стандартизировать размер картинки и использовать CSS.

  • Использовать кэширование браузеров: в этом случае при возвращении пользователя на ранее посещённый сайт крупные элементы будут мгновенно загружаться из кэша, а не с сервера, как при первом посещении ресурса.

  • Минимизировать HTTP-запросы.

Насколько проблема со скоростью загрузки сайтов актуальна для России? Так же ли строг Яндекс в этом вопросе, как и Google? Ответы на эти вопросы дал Евгений Дурягин, менеджер отдела поискового продвижения агентства интернет-рекламы i-Media:

«Проблема медленной загрузки сайтов актуальна и для России, поскольку основная масса сайтов находится на виртуальных хостингах с сотнями сайтов на одном IPадресе. В основном это сайты компаний, желающие сэкономить на хостинге, но они не задумываются и, скорее всего, даже не знают, какого именно качества сайты соседствуют с ними. Зачастую это сайты низкого качества: визитки, линкопомойки, саттелиты.

По нашим наблюдениям, для Яндекса важным является не столько сама скорость загрузки страниц (как для Google), сколько отрицательные результаты этой медленной загрузки. Недовольные посетители, недогрузившие страницу сайта и ушедшие к конкурентам. Именно это сработает в минус сайту с громоздкими неоптимизированными страницами. Поэтому мы солидарны с поисковыми системами – следует использовать надежные быстрые хостинги и выбирать тарифный план, где ваш сайт будет единственным на IPадресе. Это исключит пессимизацию за «плохих соседей» и улучшит скорость загрузки сайта, поведенческие факторы. Не стоит забывать и о проблемах самого сайта и делать своевременную внутреннюю оптимизацию: выносить Java-скрипты в отдельные файлы и оптимизировать их код, делать корректные CSS, использовать gzipсжатие, уменьшать размеры файлов с изображениями без видимой потери в качестве и т.д.»

Подробнее о проблеме медленной загрузки сайта рассказал Александр Чернов, руководитель отдела технической поддержки агентства интернет-рекламы i-Media:

«С технической стороны вопроса, медленная загрузка для браузера и медленная загрузка для поискового робота – разные вещи. Браузер пользователя загружает html страницу и сразу же, а иногда, даже не догрузив страницу до конца, начинает загружать дополнительный контент (скрипты, файлы мультимедиа, и т. п.), создавая при этом дополнительную нагрузку на web-сервер. При этом в зависимости от структуры и принципа работы страницы, браузер может «ждать» дополнительное содержимое и не отображать страницу. Робот-поисковик, напротив, загружает изначально только html-содержимое, анализирует его, и только в случае необходимости загружает дополнительные файлы, относящиеся к данной странице (к тому же, не стоит забывать, что робота можно «отучить» быстро загружать множество страниц вашего сайта с помощью файла robots.txt, а пользователя нет). Таким образом, сайт может успешно индексироваться поисковым роботом, но при этом очень медленно работать с браузерами пользователей. И это проблема «дешевого» хостинга. Качественная настройка сервера под определенный проект позволяет избежать описанных выше проблем с загрузкой.

Другой фактор, который часто путают с загрузкой, это медленная работа скриптов и некачественная верстка. Очень часто заказчик требует от разработчика поддержку старых браузеров (например, IE6 вышел в 2001 году – уже прошло более 10 лет!). Для обеспечения совместимости, разработчику приходится использовать старые, медленные технологии, приемы программирования, различные «фиксы» и т.п. В итоге, 99% посетителей этого сайта вынуждены терпеть медленную работу (или покинуть такой сайт). К сожалению, эти проблемы заменой хостинга и покупкой/арендой серверов не решить. В подобных случаях, нужно менять приоритеты и ориентироваться на современные технологии еще на стадии проектирования сайта.

В целом, обеспечение быстрой работы сайта – это объемная задача, справиться с которой можно только при комплексном подходе на всех этапах работ: от разработки технического задания и дизайна до размещения сайта на хостинге. Такой подход не только обеспечит вас отлично работающим сайтом и довольными клиентами, но и избавит от лишних затрат на его хостинг».

Случилось что-то важное? Поделитесь новостью с редакцией.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Поделиться 
Поделиться дискуссией:
Отправить отзыв
    ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
    SEOnews и Serpstat запускают конкурс для интернет-маркетологов
    Marina Lagutina
    1
    комментарий
    0
    читателей
    Полный профиль
    Marina Lagutina - Добрый день! Видимо я из тех, кто пытается последней вскочить в уходящий поезд. Ночью написала статью на тему "обзор инструментов контент-маркетинга". Своего блога нет. Отправила вам не мейл. Я еще могу у вас разместиться или искать, кто возьмет статью к себе в блог?
    «Я оптимизировал сайт, а он не в ТОП! Что делать?»
    Павел Горбунов
    7
    комментариев
    0
    читателей
    Полный профиль
    Павел Горбунов - Как можно в инструменте tools.pixelplus.ru/tools/text-natural сравнить текст со страницы конкурента и со своей страницы? Я вижу возможность только для проверки одного урла.
    Мир глазами поисковых систем
    Александр Рунов
    7
    комментариев
    0
    читателей
    Полный профиль
    Александр Рунов - Какой регион, если не секрет? В Мск, в ряде ВК тематик (в тех же "окнах" или "колесах"), без работы с внешними факторами по ВЧ запросам в ТОП не выплывешь. Хотя в большинстве направлений вполне реально.
    Монетизация сайта. Как, когда, сколько?
    Кирилл
    1
    комментарий
    0
    читателей
    Полный профиль
    Кирилл - Ой да мне плевать что там с ссылками баннеры, доход хороший при размещении не на всех страницах сайта, никаких санкций от поисковиков нету, плохих тематик в рекламе тоже - так что все ок!
    Влияние HTTPS на ранжирование региональных поддоменов в Яндексе
    Екатерина Иванова
    1
    комментарий
    0
    читателей
    Полный профиль
    Екатерина Иванова - Посмотрите на сколько упал трафик и на сколько потом вырос:упал на 10-20% на 1 месяц, а вырос в итоге в 5 раз. Одним мартовским трафиком всё падение перекрыли. Или можно ждать Яндекс неопределённое количество времени со стартовым уровнем трафика. Упущенные возможности и всё-такое.
    Google.ru внесли в реестр запрещенных сайтов
    Гость
    1
    комментарий
    0
    читателей
    Полный профиль
    Гость - Гон, все работает и будет работать. Да и пусть банят, будет как с рутрекером.
    Инфографика: самые распространенные SEO-ошибки Рунета
    Alex Wise
    3
    комментария
    0
    читателей
    Полный профиль
    Alex Wise - Спасибо, Женя, за рекомендацию! :) Андрей, чтобы понять, какой программой пользоваться, нужно сделать несколько вещей: 1. Попробовать обе: у нас в Netpeak Spider бесплатный триал на 14 дней с полным функционало; у SFSS до 500 URL всегда бесплатно, но с ограниченным функционалом. 2. Понять свой стиль работы – если вы любите полный контроль и из-за этого более высокую скорость пробивки, тогда выбирайте Netpeak Spider. Если для вас не так важна скорость и количество пробитых URL, то можно остановиться на SFSS. 3. Определиться с нужными функциями: их в обоих программах очень много и как в Netpeak Spider есть уникальные, так и в SFSS есть свои уникальные. Мы всегда ориентируемся на то, чтобы быстро и чётко показать ошибки – для этого у нас вся таблица красится в соответствующие цвета. Думайте!) И, если что, обращайтесь с вопросами – мы будем рады помочь!)
    Конкурс: угадайте пятерку лидеров рейтинга «SEO глазами клиентов 2017»
    Оля
    1
    комментарий
    0
    читателей
    Полный профиль
    Оля - 1 Ingate 2 Wezom 3 Bynjg vtlbf 4 seo energy 5 директ лайн
    Интеграция call tracking и CRM: углубленный анализ данных о звонках и продажах
    Денис
    2
    комментария
    0
    читателей
    Полный профиль
    Денис - Какой смысл вообще в облачных CRM, обрезанный фугкционал, свое дописать невозможно, слив клиентов другим компаниям. Серверные бесплатные CRM куда надежней и кастамизируй как хочешь.
    SEMrush: факторы ранжирования в Google в 2017 году
    Анна Макарова
    298
    комментариев
    0
    читателей
    Полный профиль
    Анна Макарова - Уважаемый S1, я тоже понимаю, что есть такие люди, которые заметив допущенную неточность несутся на всех парусах продемонстрировать "силу" своего ума. Спасибо вам за пристальное внимание. Это поможет нам быть лучше.
    ТОП КОММЕНТАТОРОВ
    Комментариев
    910
    Комментариев
    834
    Комментариев
    554
    Комментариев
    540
    Комментариев
    483
    Комментариев
    373
    Комментариев
    298
    Комментариев
    262
    Комментариев
    221
    Комментариев
    171
    Комментариев
    156
    Комментариев
    137
    Комментариев
    121
    Комментариев
    97
    Комментариев
    97
    Комментариев
    95
    Комментариев
    80
    Комментариев
    77
    Комментариев
    67
    Комментариев
    60
    Комментариев
    59
    Комментариев
    55
    Комментариев
    52
    Комментариев
    52
    Комментариев
    45

    Отправьте отзыв!
    Отправьте отзыв!