Правило 130 дней индексации: что это такое и как его использовать

Компания Indexing Insight провела глубокий анализ 1,4 млн страниц, чтобы проверить, действительно ли существует правило 130-дневной индексации. А мы перевели и адаптировали исследование.

Правило 130 дней индексации: что это такое и как его использовать

Согласно правилу 130 дней индексации, если страница не сканировалась в течение последних 130 дней, она может быть исключена из индекса. Эту идею изначально выдвинул Алексис Рылко в своей статье «Google и правило 130 дней». Он предположил, что использование метрики Days Since Last Crawl в инструменте Screaming Frog в сочетании с URL Inspection API позволяет быстро обнаружить страницы, которые находятся под угрозой исключения из индекса.

Если страница не сканировалась в течение 130 дней, есть риск, что она будет удалена из поисковой системы.

В Indexing Insight — инструменте, который может не работать в России, — тщательно отслеживается метрика Days Since Last Crawl для каждого URL, а это более миллиона страниц. Основываясь на этих данных, было решено провести исследование, чтобы проверить, насколько справедливо правило 130‑дневной индексации и как оно может повлиять на работу.

❗Это перевод и адаптация статьи Адама Джента для сайта Indexing Insight Newsletter.

Методология исследования

В исследовании были использованы данные об индексации, полученные от Indexing Insight. Вот несколько важных моментов, которые следует учитывать при анализе результатов:

  1. Исследование проводилось на основе данных с 18 сайтов, использующих Indexing Insight. Эти сайты различаются по размеру, типу отрасли и авторитетности бренда.

  2. Общее количество страниц, задействованных в исследовании, составило чуть больше 1,4 млн. Они были разделены на категории для выявления общих тенденций.

  3. Сайты, использующие инструмент, не всегда отслеживают все свои страницы. Однако они уделяют особое внимание наиболее значимым страницам, которые приносят трафик и доход.

  4. Важные страницы отправляются в инструмент через XML Sitemaps и ежедневно отслеживаются.

  5. Инструмент Days Since Last Crawl работает на основе метрики Last Crawl Time для каждой страницы, полученной с помощью URL Inspection API.

  6. Статусы индексации для всех страниц были взяты 17 апреля 2025 года.

  7. В это исследование были включены только те страницы, которые имеют время последнего сканирования, полученное через URL Inspection API, как для проиндексированных, так и для непроиндексированных страниц.

  8. Проведена обработка данных с целью оставить только следующие типы индексации: «Проиндексировано», «Просканировано, но в настоящее время не проиндексировано», «Обнаружено, но в настоящее время не проиндексировано» и «URL неизвестен Google». Мы исключили все технические ошибки и дубликаты.

❗ Следует отметить, что сама идея об исключении из индексации в течение 130 дней не является новой. Её сформулировали Джолли Лар‑Эйген и Беренд Хюльсен, которые ещё в январе 2024 года заметили, что в одном из клиентских проектов Googlebot приостановил свою работу после 129 дней.

Результаты

Правило 130‑дневной индексации действительно работает, однако оно, скорее, является закономерностью, чем железным принципом.

Данные, основанные на анализе 1,4 млн страниц с нескольких сайтов, демонстрируют, что если страница не была просканирована в течение последних 130 дней, то вероятность её индексации составляет 99%.

Правило 130 дней
Правило 130 дней

Тем не менее есть и непроиндексированные страницы, которые сканировались менее чем 130 дней назад.

Это говорит о том, что правило 130 дней не является всеобъемлющим и может служить лишь сигналом о вероятности того, что Google может исключить ваши страницы из индекса.

Чем больше дней Googlebot тратит на сканирование страницы, тем выше вероятность непопадания её в индекс. Однако после 130 дней процент неиндексированных страниц резко возрастает с 10 до 99%.

Ниже представлен график, который поможет вам понять количество страниц в каждой категории.

Правило 130 дней
Правило 130 дней

Что происходит со страницами после 130 дней?

В исследовании разделили данные на группы в зависимости от последнего времени сканирования страниц — от 100 до 200 дней.

Что происходит спустя 130 дней
Что происходит спустя 130 дней

Данные говорят о том, что в период между 100‑м и 130‑м днём охват индекса составлял примерно от 94% до 85%. Однако после 131‑го дня наблюдается резкое увеличение доли непроиндексрованных страниц.

В период между 131‑м и 151‑м днём доля неиндексированных страниц увеличилась с 68% до 100%. Хотя после этого периода всё ещё остаются проиндексированные страницы, охват индекса значительно снижается. После 151 дня количество проиндексированных страниц равно нулю. 

Ниже представлены данные, позволяющие лучше понять масштаб страниц в каждой категории.

Что происходит спустя 130 дней
Что происходит спустя 130 дней

Что говорят эксперты

Для многих опытных SEO‑специалистов это не должно стать чем‑то новым и неожиданным. Идея оптимизации сканирования и отслеживания дней с его момента, очевидно, не наша идея. За последние 10 лет многие SEO‑специалисты, например Эйджей Кон, рассказывали об идее CrawlRank. А Доун Андерсон давал подробные технические объяснения того, как работают уровни сканирования Googlebot.

Вкратце их работа сводится к следующему:

Страницы, которые сканируются реже, чем у ваших конкурентов, получают меньше трафика. Вы окажетесь в выигрыше, если ваши наиболее важные страницы будут сканироваться Googlebot чаще, чем у конкурентов.

Проблема всегда заключалась в отслеживании дней, прошедших с момента последнего сканирования, и определении точного периода времени, в течение которого страницы деиндексируются.

Но вы можете уточнить время последнего сканирования для каждой отслеживаемой страницы и рассчитывать количество дней с этого момента. Этот показатель можно отследить в Проверке индексации в Топвизоре.

А инструмент Аудит сайта поможет выявить технические проблемы, которые мешают индексации и ранжированию вашего сайта. Сервис не только соберёт технические данные, но и подскажет, как исправить ошибки и предупреждения.

Что всё это значит

Очень скоро можно будет добавить в Indexing Insight новые отчёты, которые позволят пользователям определить, какие важные страницы находятся под угрозой деиндексации. А также отслеживать, сколько времени требуется Googlebot, чтобы просканировать важные страницы вашего сайта.

Ещё про особенности Google

Индексация Google: анализ данных о 16 млн страниц

Как Google обрабатывает JavaScript в процессе индексации

16 компаний в ТОПе Google в 2024 году: кто они и как им это удаётся