Измените языковые настройки Топвизор для работы с сервисом на родном языке. Вы также сможете выбрать и установить язык интерфейса позже в настройках Аккаунта. Измените языковые настройки Топвизор для работы с сервисом на родном языке. ru Русский Выбрать

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

В разделе «Диагностика» в Вебмастере появилось специальное уведомление, которое расскажет про дубли страниц из-за GET-параметров. 

Блог Яндекса для Вебмастеров: Что такое незначащие GET-параметры и зачем отслеживать дубли

Ничего делать не нужно, уведомление появляется автоматически, если дубли обнаружены. 

Уведомление о дублях
Уведомление о дублях

Яндекс предупреждает о задержке в обработке данных в 2-3 дня. Поэтому если вы увидите в уведомлении исправленные страницы, скорее всего это связано именно с задержкой и нужно подождать. 

Важно

Дубли с параметром amp, даже если они у вас есть, Вебмастер не покажет.

Три способа как оставить в поиске нужную страницу

  1.  Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Тогда робот не будет много раз обходить повторяющийся контент.
  2. Если добавить Clean-param нет возможности, то укажите канонический адрес страницы, который будет участвовать в поиске. При этом роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical.
  3. Закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц.
Самый лучший способ – первый, с добавлением директивы Clean-param. Яндекс рекомендует использовать именно его. 

Уточнение Яндекса

«Директива Clean-param – межсекционная, это означает, что она будет обрабатываться в любом месте файла robots.txt. Указывать ее для роботов Яндекса при помощи User-Agent: Yandex не требуется. Но если вы хотите указать директивы именно для наших роботов, убедитесь, что для User-Agent: Yandex указаны и все остальные директивы – Disallow и Allow. Если в robots.txt будет указана директива User-Agent: Yandex, наш робот будет следовать указаниям только для этой директивы, а User-Agent: * будет проигнорирован».

Подробнее о работе со страницами-дублями читайте в Справке.

Получайте интересные новости первыми, подписывайтесь на наш телеграм-канал.

Подписаться 




0 0
Оставьте свой комментарий
Чтобы оставить комментарий, авторизуйтесь

Советуем почитать

Как защитить контент сайта от воровства

Как защитить контент сайта от воровства

Мы нашли 5 способов усложнить работу контент-вору и один стопроцентный вариант, который защитит по закону.
Как отличить клики, сеансы и пользователей в GA4

Как отличить клики, сеансы и пользователей в GA4

В аналитике порой встречаются расхождения между кликами и сеансами - это нормально. Объясняем разницу между пользователями, клик
Как работают адаптивные объявления Google

Как работают адаптивные объявления Google

Специалист по контекстной рекламе рассказывает о плюсах и минусах адаптивов и о том, как их правильно настроить.