Измените язык, если вам нужно работать с Топвизором на другом языке. Язык интерфейса можно изменить в любое время в настройках аккаунта. Измените язык, если вам нужно работать с Топвизором на другом языке. ru Русский Выбрать

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

Специальное уведомление появится в разделе «Диагностика».

В разделе «Диагностика» в Вебмастере появилось специальное уведомление, которое расскажет про дубли страниц из-за GET-параметров.

Блог Яндекса для Вебмастеров: Что такое незначащие GET-параметры и зачем отслеживать дубли

Ничего делать не нужно, уведомление появляется автоматически, если дубли обнаружены.

Уведомление о дублях
Уведомление о дублях

Яндекс предупреждает о задержке в обработке данных в 2-3 дня. Поэтому если вы увидите в уведомлении исправленные страницы, скорее всего это связано именно с задержкой и нужно подождать.

Важно

Дубли с параметром amp, даже если они у вас есть, Вебмастер не покажет.

Три способа как оставить в поиске нужную страницу

  1. Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Тогда робот не будет много раз обходить повторяющийся контент.
  2. Если добавить Clean-param нет возможности, то укажите канонический адрес страницы, который будет участвовать в поиске. При этом роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical.
  3. Закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц.
Самый лучший способ – первый, с добавлением директивы Clean-param. Яндекс рекомендует использовать именно его.

Уточнение Яндекса

«Директива Clean-param – межсекционная, это означает, что она будет обрабатываться в любом месте файла robots.txt. Указывать ее для роботов Яндекса при помощи User-Agent: Yandex не требуется. Но если вы хотите указать директивы именно для наших роботов, убедитесь, что для User-Agent: Yandex указаны и все остальные директивы – Disallow и Allow. Если в robots.txt будет указана директива User-Agent: Yandex, наш робот будет следовать указаниям только для этой директивы, а User-Agent: * будет проигнорирован».

Подробнее о работе со страницами-дублями читайте в Справке.

Получайте интересные новости первыми, подписывайтесь на наш телеграм-канал.

Подписаться




Теги: