×
Россия +7 (495) 139-20-33

Фактор “свежести” информации в Google

Россия +7 (495) 139-20-33
Шрифт:
0 3591

Наряду с уже патентованными терминами, как PageRank и TrustRank, возможно появление нового, а именно “FreshRank” (пока неофициального), фактора, определяющий «свежесть» документов. В патентной заявке от Моники Хензингер в адрес Патентного ведомства США утверждается, что одной из проблем, связанных с определением «свежести» документа, индексируемого в поисковой системе, являются данные о «дате последнего изменения», которые не всегда верны. Веб-мастера могут вносить изменения в эти данные. Это не противоречит принципам Google, т.к. поисковая система, главным образом, следит за изменениями контента. Как Google определяет «свежесть» документа, пока остается секретом. Только по многим оценкам, работу по определению «свежести» контента сайтов он выполняет некачественно, т.к. многие из них не соответствуют релевантности запроса.

В данной ситуации появляется вопрос: как фактор свежести влияет на определение релевантности? Некоторые считают, что для Google это не имеет значения, особенно, если документ имеет много внешних ссылок. Моника Хензингер считает нужным ввести более четкое определение «свежести» документа, т.к. не все поисковые системы используют данные о «дате последнего изменения» документа, т.о. необходим более надежный источник для определения апдейта контента.

К сожалению, по причине штрафных санкций за дублирование контента, стало трудно определить данные о «свежести» документа. В частности, фильтр, используемый Google для определения дубликатов, не принимает во внимание его происхождение. Это кажется, по крайней мере, странным, что наряду с постоянными технологическими инновациями Google не предпринимает шагов по усовершенствованию способов по определению «свежести» документа. Отметим, что у Yahoo и MSN такой проблемы нет, так в чем же дело с Google?

Google: средства для удаления вредоносных программ (Removal Tool) и дублированного контента

Еще одним препятствием на пути фактора свежести стал Removal Tool, который многие считают «панацеей», лекарством от всех болезней, таких, как дублированные контенты или временные редиректы.

Если Вам когда-либо приходилось использовать Removal Tool, то Вы могли заметить, что, в итоге, количество страниц на сайте остается без изменений, однако некоторые страницы могут просто не открываться. Почему это происходит? Дело в том, что Removal Tool не удалил URL-страницы, а просто отфильтровал сами страницы. Поэтому, несмотря на то, что эти страницы уже удалены, они продолжают числиться в базе данных. Только через 3-6 месяцев Google, например, удалит URL-ы этих страниц из индекса.

Далее внимание будет уделено страницам, выделенным таким тэгом, как < meta name="robots" content="noindex,follow">. После всех этапов естественного обхода, роботы перестают индексировать такие страницы по причине наличия мета-тэга robots, но PageRank данных страниц остается неизменным, к тому же они сохраняют возможность передавать его другим страницам, тогда как у страниц, по отношению к которым был применен Removal Tool, нет никакого PageRank.

Следует учесть, что ссылки с удаленных страниц рассматриваются как «мертвые» ссылки. Например, существуют страницы 1, 2, 3, ссылающиеся друг на друга: страница 1-> страница 2-> страница 3-> ... После удаления страницы 2 при помощи Removal Tool, поисковые роботы не будут обходить страницу 3 и все последующие страницы.

Google неумело работает с контентом

После всего вышесказанного может возникнуть вопрос: какое отношение имеют удаленные страницы к фактору «свежести»? Отфильтрованные страницы после периода ожидания появляются вновь, но уже с устаревшим и неактуальным контентом. В этом и заключается основная проблема: они представляют собой «мертвые» страницы с «мертвой» навигацией. Несмотря на это, они продолжают фигурировать в индексе поисковой системы и зачастую занимать лучшие позиции в ранжировании по сравнению со страницами, на которых контент является более актуальным.

Например, некоторые сайты не нуждаются в обновлении. Значит ли это, что информация на них не актуальна и устарела? Не совсем. Если рассматривать правительственный законопроект, принятый 10 лет назад, то здесь уже не может быть новой информации; или же рассматривать информацию о формуле пенициллина, то это тоже не предполагает каких-либо изменений. Наша жизнь изобилует подобными примерами.

В патентной заявке Google нет упоминаний о том, как оценить актуальность и релевантность цитирования. Так что же такое Фактор «Свежести» Google? В чем его суть: в актуальности документов или в их релевантности?

Определение фактора «свежести»

Как Google определяет «свежесть» документов? Давайте разберемся. Ранее уже упоминалось о возможности изменить «дату последнего изменения». Это означает, что данную характеристику нельзя учитывать при оценке «свежести».
Определить актуальность документа представляется возможным лишь при рассмотрении совокупности элементов, таких как:

• частота всех изменений страницы (дата последнего изменения);
• количество изменений на странице и их характер: структурные изменения или незначительные;
• изменения в распространении и плотности ключевых слов;
• текущее количество внешних ссылок;
• изменение или доработка ссылочного текста;
• количество других страниц в базе данных, релевантных таким же ключевым словам;
• число дубликатов контента;
• количество новых ссылок на сайты с низким показателем доверия.

В представленный список могут быть включены и другие факторы, которые в той или иной степени имеют отношение к актуальности документа. Полезным советом в данном случае остается: не проводить регулярных изменений на страницах сайта, однако вести мониторинг актуальности контента следует регулярно, но это не всегда предполагает его изменение. Нужно помнить о том, что кардинальные изменения контента могут привести к «песочнице», что больше характерно для новых сайтов в индексе.

Чем грозит новизна документов

В патенте Google говорится, что значительные изменения тематических разделов документа могут быть связаны со сменой владельца, в результате чего, все ранние показатели документа (оценка, ссылочный текст и т.д.) обнуляются.Внезапное появление большого числа тематических разделов может быть расценено как результат спам-деятельности. Если у документа, долгое время состоящего из определенного набора разделов, вдруг появляется несколько дополнительных разделов, для поисковой системы это может означать связь документа с дорвеями (входными страницами).

Внезапное исчезновение оригинальных тематических разделов документа также может стать источником проблем. Если подобное будет зарегистрировано несколько раз, поисковая система (Google) может занизить относительную оценку документа, ссылок, ссылочного текста и других данных, связанных с документом.

Из всего вышесказанного может показаться, что надежность и достоверность являются для Google основными критериями качества документов, в то время как «свежесть» играет лишь вспомогательную роль. Кажется, что на кону намного больше, чем просто определение новизны контента и даты его создания. Вероятно, речь вовсе не о «свежести» документа, а все о тех же внешних ссылках.

По информации www.seochat.com

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
14
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
#SEOnews14: мы празднуем – вы получаете подарки!
Анна Макарова
362
комментария
0
читателей
Полный профиль
Анна Макарова - Гость, добрый день! С победителями мы связывались сразу после розыгрыша. Если мы вам не написали, значит, ваш номер не выпал. Но не расстраивайтесь, у нас обязательно будут новые розыгрыши!
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
Блорик Саакашвили
2
комментария
0
читателей
Полный профиль
Блорик Саакашвили - Ну а так конечно согласен видно что у автора статьи не такие и глубокие знания...
Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
Георгий
1
комментарий
0
читателей
Полный профиль
Георгий - Все что рекомендуется в этой статье есть у w.tools. Ни разу не пожалел что подключился. Своя CDN сеть, кеш статики и динамики, минификация js\css и кешируемого html, оптимизация всех типов картинок и еще куча всего полезного. Сайт летает и я не знаю проблем. Могу рекомендовать от души.
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Ann Yaroshenko
5
комментариев
0
читателей
Полный профиль
Ann Yaroshenko - Дмитрий, добрый день! Если вы проставили на странице с автозапчастями rel=canonical ( а я вижу в коде, что не проставили) или в HTTP хедере, то бот, как правило: выберит ту страницу главной, которую вы указали в rel=canonical ссылке. Eсли же вы этого не сделали, то бот сам выберит оригинал (алгоритмы, по которым бот это делает, скрыты Googl-ом)
«Аудит, чтобы ты заплакала…», или Что делать, когда получил сторонний аудит сайта
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Воообще, на самом деле здесь двоякое впечатление от таких аудитов. Конечно, для полного глубокого анализа и подготовки рекомендаций по сайту - нужны доступы к системам аналитики и инструментам вебмастера. Но если оценивать подобные аудиты с точки зрения чистого SEO (которое все больше и больше становится лишь малой частью digital-маркетинга, лишь одним из каналов) - они имеют место быть. Но с оговоркой, что они сделаны с учетом анализа конкурентов/отрасли. Современные инструменты и алгоритмы позволяют делать это маркетологам в автоматическом режиме, и даже давать рекомендации - возможностями машинного обучения уже никого не удивишь. Да, полное перечисление "мифического" списка ошибок, построенного по предикативным правилам, да еще и с учетом устаревших особенностей ПС - это явный признак некачественного аудита. В первую очередь потому, что эти "ошибки" следует рассматривать в качестве рекомендаций от ПС (как и говорится в справочнике вебмастера у Яндекса/Google). Однако если эти данные даются с отсылкой на данные о конкурентах, об отрасли, используются методы ML и Natural language processing для обработки исходных данных, кластеризации запросов, классификации страниц/запросов/сайтов, определения структуры документа - такие отчеты имеют право на существование. Но ключевым моментом является то, что подобные инструменты достаточно сложны в разработке, а значит требуют квалифицированных специалистов для их разработки. Которых просто нет у студий рассылающих подобные "сео отчеты". Подобные отчеты по "ошибках" тоже неплохой источник информации, но лишь на 0 этапе анализа сайта. И в принципе, теоретически, возможно почти полное составление "хороших аудитов" без участия маркетолога, на основе лишь открытых данных сайта/внешних источников, но только при соответствующем применении всех современных возможностей анализа данных и рекомендательных систем. И в любом случае подобный "хороший отчет" требует конечного заключения от эксперта.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита
Kosta Bankovski
4
комментария
0
читателей
Полный профиль
Kosta Bankovski - Спасибо за приятные слова! Буду и дальше делиться наработками ;)
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Как вывести сайт в ТОП 10 Google в 2019 году
Роман
1
комментарий
0
читателей
Полный профиль
Роман - Вот скажите пожалуйста, Мне разработали сайт на мою фирму, www.линк.kz и теперь надо решить, сео продвижение у нас стоит около 25000 - 30000 руб. в месяц, для меня сумма не маленькая стоит ли оно того? или можно просто оптимизировать сайт в плане СЕО и выходить в ТОП за счет трафика?
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
362
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
107
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
82
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!