SEO-кухня SEO-кухня 28.11.2025

Как в robots ограничить запросы со стороны ИИ-агентов?

ИИ-агенты могут поднять ссылку на сайт и улучшить его метрики, а могут — украсть уникальные тексты и отобрать аудиторию. В этой статье рассказали, как ограничить запросы нейросетей в robots.txt и зачем это нужно.

Как в robots ограничить запросы со стороны ИИ-агентов?

Своим опытом поделился Дмитрий Дамарнацкий, частный SEO‑специалист, автор телеграм‑канала «Продвигатель» и призёр Кейс‑чемпионата 2025.

Зачем ограничивать запросы ИИ‑агентов

На сайт в любом случае будут заходить боты. Некоторые, например краулеры, помогают странице: роботы индексируют сайт и добавляют его в выдачу. Другие боты создают избыточную нагрузку на сервер, имитируют поведение пользователя, а иногда и атакуют ваш сайт. 

К ИИ‑агентам SEO‑специалисты относятся по‑разному. Иногда они делают всё возможное, чтобы их сайт попал в нейровыдачу — так ссылка на сайт и информация с него попадает на высокие позиции, поскольку ИИ‑блоки обычно находятся выше всех сайтов.

🔥 О том, чем отличается поиск с ИИ, как нейросети генерируют ответы и чем может помочь ИИ‑оптимизация, мы рассказали в статье «Как интегрировать GEO в SEO».

Но некоторые специалисты считают, что искусственный интеллект ворует клики: пользователь получает всю необходимую информацию на странице выдачи и не переходит на сайт, что плохо сказывается на позициях и конверсии. 

Кроме того, ИИ‑агенты используют уникальные материалы со страниц без разрешения правообладателя. Из‑за этого в 2023 году газета New York Times подала в суд на OpenAI за использование её статей для обучения нейросетей. Представители газеты считают, что это поможет ИИ писать конкурентные статьи, и в будущем ChatGPT будет отбирать у газеты аудиторию.

Какие команды есть

Базовая директива в robots.txt для запрета сканировать тексты на сайте выглядит так:

User‑agent: имя робота
Disallow: /

Если в строчке «User‑agent» прописать звездочку, вы заблокируете любым роботам сканировать страницу или сайт. Так владельцы защищают, например, внутреннюю документацию. Слеш в этой директиве означает запрет сканировать весь сайт или аккаунт.

Чтобы заблокировать ИИ‑агентов ChatGPT и Claude, нужно вставить в файл эту команду:

User‑agent: GPTBot

Disallow: /

User‑agent: ChatGPT‑User

Disallow: /

User‑agent: Google‑Extended

Disallow: /

User‑agent: ClaudeBot

Disallow: /

User‑agent: Claude‑Web

Disallow: /

Это не единственный способ заблокировать ботов. Аналогичные инструменты предоставляют сервисы веб‑аналитики, похожие возможности есть в файле .htaccess.

Ограничения для ИИ‑агентов в robots.txt часто не работают. Уже есть кейсы, когда такие боты полностью игнорируют правила и продолжают собирать контент даже при указанном «Disallow: /».

В логах видно: часть запросов приходит от ИИ‑ботов, которым доступ формально закрыт, а часть — вообще от анонимных «серых» парсеров без честного User‑Agent. Robots.txt таких агентов физически не способен остановить, потому что директива — это всего лишь рекомендация, а не технический запрет.

Когда стоит задача действительно ограничить доступ к контенту, необходимы принудительные меры на уровне сервера: .htaccess, Nginx‑правила, WAF (Cloudflare и так далее). Они работают до того, как бот успеет прочитать хоть одну страницу. Но ИИ‑агенты могут подменять User‑Agent, поэтому защита должна быть многоуровневой.

Дмитрий Дамарнацкий Частный SEO‑специалист, автор телеграм‑канала «Продвигатель» и призёр Кейс‑чемпионата 2025

Ещё о работе нейросетей в поиске 👇

ChatGPT не сможет заменить Google, но он расширяет возможности поиска

Как ИИ‑режим Google подбирает информацию для показа пользователю

Полное руководство по ранжированию в ИИ‑поиске для SEO‑специалистов, маркетологов и владельцев сайтов