Отчёты в Google Search Console сбоят после отказа от параметра &num=100

Разбираемся, что происходит в GSC и почему его «штормит».

12 сентября Google убрал параметр &num=100: он позволял получить сразу 100 результатов — сайтов, точных URL и сниппетов — за один поисковый запрос. Это усложняет работу парсерам позиций, которым теперь доступны только стандартные 10 результатов. Сегодня же выяснилось, что отключение параметра повлияло и на отчёты в GSC.

GSC штормит

В воскресенье Броди Кларк написал в X (бывший Twitter) и LinkedIn, что увидел «заметное падение числа показов на десктопах и резкий скачок средней позиции». Он проиллюстрировал это примером графика, который сегодня уже знаком многим специалистам по всему миру:

Источник: @brodieseo в X

Это подтвердили и эксперты русскоязычного SEO‑коммьюнити:

Старые данные по impressions могут быть искажены; сравнение с историей (особенно по десктопу) может вводить в заблуждение; CTR тоже будет «скакать», особенно если метрика кликов осталась, а показы упали.

Андрей Антохин SEO‑эксперт и автор канала Hello, Digital World

А что вообще происходит?

Специалисты полагают, что GSC засчитывает сайту показ, если ссылка находится на «текущей странице». Когда сервис проверки позиций парсил выдачу на 100 результатов, даже сайт на 99 позиции получал показ без прокрутки — ведь он находился на той же странице. В то время как реальный пользователь в реальности не открывал 9‑ю страницу и не видел сайта. Это раздувало показы и искажало CTR.

Среди возможных причин отказа от &num=100 специалисты выделяют не только стремление защититься от LLM, но также чистку от ботов, August Spam Update и стремление ограничить работу парсеров. Последние могли влиять на данные в отчётах GSC, и именно поэтому показатели Search Console скачут и вводят SEO‑тусовку в недоумение.

Логика простая: раньше данные GSC сильно искажались из‑за того, что парсеры массово тянули SERP‑результаты.

Александр Флинт Автор телеграм‑канала «SEO Flint & Google: борьба за топ»

Броди Кларк задаётся и вопросом того, насколько мы ошибались, когда всерьёз воспринимали так называемый Великий Перелом? Мог ли он быть следствием работы парсеров, искажающих данные?

Кларк выдвигает теорию, что отключение &num=100 — шаг, не столько направленный против сервисов, парсящих выдачу, сколько желание Гугла противопоставить что‑то заявлениям о сильном падении CTR из‑за появления AI Overviews. Вполне правдоподобно.

Что с этим делать

Барри Шварц подчёркивает, что официальных комментариев от Google нет; и пока он ждёт ответа от представителей компании, в частности Мюллера и Вайсберга, неизвестно, это баг или штатный апдейт.

Пока что эксперты советуют не действовать опрометчиво:

Оценивайте трафик в динамике не только по GSC, но и по реальным визитам (GA, server logs и пр.). Фокусируйтесь на метриках вовлечения и конверсии, а не только на показах и позиции. Разделяйте анализ на десктоп и mobile — сейчас это важно как никогда. <...> Предлагаю дождаться конца August spam update и корректировать стратегию. Не рекомендую паниковать или совершать какие‑то резкие движения сейчас.

Андрей Антохин SEO‑эксперт и автор канала Hello, Digital World