Правило 130 дней индексации: что это такое и как его использовать
Компания Indexing Insight провела глубокий анализ 1,4 млн страниц, чтобы проверить, действительно ли существует правило 130-дневной индексации. А мы перевели и адаптировали исследование.
Согласно правилу 130 дней индексации, если страница не сканировалась в течение последних 130 дней, она может быть исключена из индекса. Эту идею изначально выдвинул Алексис Рылко в своей статье «Google и правило 130 дней». Он предположил, что использование метрики Days Since Last Crawl в инструменте Screaming Frog в сочетании с URL Inspection API позволяет быстро обнаружить страницы, которые находятся под угрозой исключения из индекса.
В Indexing Insight — инструменте, который может не работать в России, — тщательно отслеживается метрика Days Since Last Crawl для каждого URL, а это более миллиона страниц. Основываясь на этих данных, было решено провести исследование, чтобы проверить, насколько справедливо правило 130‑дневной индексации и как оно может повлиять на работу.
Методология исследования
В исследовании были использованы данные об индексации, полученные от Indexing Insight. Вот несколько важных моментов, которые следует учитывать при анализе результатов:
-
Исследование проводилось на основе данных с 18 сайтов, использующих Indexing Insight. Эти сайты различаются по размеру, типу отрасли и авторитетности бренда.
-
Общее количество страниц, задействованных в исследовании, составило чуть больше 1,4 млн. Они были разделены на категории для выявления общих тенденций.
-
Сайты, использующие инструмент, не всегда отслеживают все свои страницы. Однако они уделяют особое внимание наиболее значимым страницам, которые приносят трафик и доход.
-
Важные страницы отправляются в инструмент через XML Sitemaps и ежедневно отслеживаются.
-
Инструмент Days Since Last Crawl работает на основе метрики Last Crawl Time для каждой страницы, полученной с помощью URL Inspection API.
-
Статусы индексации для всех страниц были взяты 17 апреля 2025 года.
-
В это исследование были включены только те страницы, которые имеют время последнего сканирования, полученное через URL Inspection API, как для проиндексированных, так и для непроиндексированных страниц.
-
Проведена обработка данных с целью оставить только следующие типы индексации: «Проиндексировано», «Просканировано, но в настоящее время не проиндексировано», «Обнаружено, но в настоящее время не проиндексировано» и «URL неизвестен Google». Мы исключили все технические ошибки и дубликаты.
Результаты
Данные, основанные на анализе 1,4 млн страниц с нескольких сайтов, демонстрируют, что если страница не была просканирована в течение последних 130 дней, то вероятность её индексации составляет 99%.

Тем не менее есть и непроиндексированные страницы, которые сканировались менее чем 130 дней назад.
Это говорит о том, что правило 130 дней не является всеобъемлющим и может служить лишь сигналом о вероятности того, что Google может исключить ваши страницы из индекса.
Чем больше дней Googlebot тратит на сканирование страницы, тем выше вероятность непопадания её в индекс. Однако после 130 дней процент неиндексированных страниц резко возрастает с 10 до 99%.
Ниже представлен график, который поможет вам понять количество страниц в каждой категории.

Что происходит со страницами после 130 дней?
В исследовании разделили данные на группы в зависимости от последнего времени сканирования страниц — от 100 до 200 дней.

Данные говорят о том, что в период между 100‑м и 130‑м днём охват индекса составлял примерно от 94% до 85%. Однако после 131‑го дня наблюдается резкое увеличение доли непроиндексрованных страниц.
В период между 131‑м и 151‑м днём доля неиндексированных страниц увеличилась с 68% до 100%. Хотя после этого периода всё ещё остаются проиндексированные страницы, охват индекса значительно снижается. После 151 дня количество проиндексированных страниц равно нулю.
Ниже представлены данные, позволяющие лучше понять масштаб страниц в каждой категории.

Что говорят эксперты
Для многих опытных SEO‑специалистов это не должно стать чем‑то новым и неожиданным. Идея оптимизации сканирования и отслеживания дней с его момента, очевидно, не наша идея. За последние 10 лет многие SEO‑специалисты, например Эйджей Кон, рассказывали об идее CrawlRank. А Доун Андерсон давал подробные технические объяснения того, как работают уровни сканирования Googlebot.
Вкратце их работа сводится к следующему:
Проблема всегда заключалась в отслеживании дней, прошедших с момента последнего сканирования, и определении точного периода времени, в течение которого страницы деиндексируются.
Но вы можете уточнить время последнего сканирования для каждой отслеживаемой страницы и рассчитывать количество дней с этого момента. Этот показатель можно отследить в Проверке индексации в Топвизоре.
Что всё это значит
Очень скоро можно будет добавить в Indexing Insight новые отчёты, которые позволят пользователям определить, какие важные страницы находятся под угрозой деиндексации. А также отслеживать, сколько времени требуется Googlebot, чтобы просканировать важные страницы вашего сайта.
Ещё про особенности Google
Индексация Google: анализ данных о 16 млн страниц
Как Google обрабатывает JavaScript в процессе индексации
16 компаний в ТОПе Google в 2024 году: кто они и как им это удаётся