Измените языковые настройки Топвизор для работы с сервисом на родном языке. Вы также сможете выбрать и установить язык интерфейса позже в настройках Аккаунта. Измените языковые настройки Топвизор для работы с сервисом на родном языке. ru Русский Выбрать

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

В разделе «Диагностика» в Вебмастере появилось специальное уведомление, которое расскажет про дубли страниц из-за GET-параметров. 

Блог Яндекса для Вебмастеров: Что такое незначащие GET-параметры и зачем отслеживать дубли

Ничего делать не нужно, уведомление появляется автоматически, если дубли обнаружены. 

Уведомление о дублях
Уведомление о дублях

Яндекс предупреждает о задержке в обработке данных в 2-3 дня. Поэтому если вы увидите в уведомлении исправленные страницы, скорее всего это связано именно с задержкой и нужно подождать. 

Важно

Дубли с параметром amp, даже если они у вас есть, Вебмастер не покажет.

Три способа как оставить в поиске нужную страницу

  1.  Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Тогда робот не будет много раз обходить повторяющийся контент.
  2. Если добавить Clean-param нет возможности, то укажите канонический адрес страницы, который будет участвовать в поиске. При этом роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical.
  3. Закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц.
Самый лучший способ – первый, с добавлением директивы Clean-param. Яндекс рекомендует использовать именно его. 

Уточнение Яндекса

«Директива Clean-param – межсекционная, это означает, что она будет обрабатываться в любом месте файла robots.txt. Указывать ее для роботов Яндекса при помощи User-Agent: Yandex не требуется. Но если вы хотите указать директивы именно для наших роботов, убедитесь, что для User-Agent: Yandex указаны и все остальные директивы – Disallow и Allow. Если в robots.txt будет указана директива User-Agent: Yandex, наш робот будет следовать указаниям только для этой директивы, а User-Agent: * будет проигнорирован».

Подробнее о работе со страницами-дублями читайте в Справке.

Получайте интересные новости первыми, подписывайтесь на наш телеграм-канал.

Подписаться 




Теги: yandex
20 0
Оставьте свой комментарий
Чтобы оставить комментарий, авторизуйтесь
'
'

Советуем почитать

Как проверить дроп-домен

Как проверить дроп-домен

Разбираемся, что такое «дроп-домены», для чего они нужны и как проверить всё от качества ссылок до санкций.
Отличия продвижения в Яндекс и Google

Отличия продвижения в Яндекс и Google

Поговорим о том, как продвигать сайты в Яндекс и Google одновременно, какие отличия и сходства есть у поисковых систем.
Как архитектура SPA-сайтов влияет на метрики Core Web Vitals

Как архитектура SPA-сайтов влияет на метрики Core Web Vitals

Что такое SPA-сайты, почему их показатели по CWV могут быть хуже, чем у обычного сайта, и что с этим планирует делать Google. Отвечает команда Chrome.
;