Измените языковые настройки Топвизор для работы с сервисом на родном языке. Вы также сможете выбрать и установить язык интерфейса позже в настройках Аккаунта. Измените языковые настройки Топвизор для работы с сервисом на родном языке. ru Русский Выбрать

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

В разделе «Диагностика» в Вебмастере появилось специальное уведомление, которое расскажет про дубли страниц из-за GET-параметров. 

Блог Яндекса для Вебмастеров: Что такое незначащие GET-параметры и зачем отслеживать дубли

Ничего делать не нужно, уведомление появляется автоматически, если дубли обнаружены. 

Уведомление о дублях
Уведомление о дублях

Яндекс предупреждает о задержке в обработке данных в 2-3 дня. Поэтому если вы увидите в уведомлении исправленные страницы, скорее всего это связано именно с задержкой и нужно подождать. 

Важно

Дубли с параметром amp, даже если они у вас есть, Вебмастер не покажет.

Три способа как оставить в поиске нужную страницу

  1.  Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Тогда робот не будет много раз обходить повторяющийся контент.
  2. Если добавить Clean-param нет возможности, то укажите канонический адрес страницы, который будет участвовать в поиске. При этом роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical.
  3. Закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц.
Самый лучший способ – первый, с добавлением директивы Clean-param. Яндекс рекомендует использовать именно его. 

Уточнение Яндекса

«Директива Clean-param – межсекционная, это означает, что она будет обрабатываться в любом месте файла robots.txt. Указывать ее для роботов Яндекса при помощи User-Agent: Yandex не требуется. Но если вы хотите указать директивы именно для наших роботов, убедитесь, что для User-Agent: Yandex указаны и все остальные директивы – Disallow и Allow. Если в robots.txt будет указана директива User-Agent: Yandex, наш робот будет следовать указаниям только для этой директивы, а User-Agent: * будет проигнорирован».

Подробнее о работе со страницами-дублями читайте в Справке.

Получайте интересные новости первыми, подписывайтесь на наш телеграм-канал.

Подписаться 




Теги: yandex
28 0
Оставьте свой комментарий
Чтобы оставить комментарий, авторизуйтесь

Советуем почитать

Апдейт

Апдейт

Апдейт — это обновление базы данных поисковых систем. Чтобы лучше понять, что такое апдейт, сначала нужно понять принцип работы поисковой системы.
Коды ошибок HTTP: полный список ошибок сервера

Коды ошибок HTTP: полный список ошибок сервера

Что такое код ответа HTTP. Полный перечень кодов статуса 1**, 2**, 3**, 4**, 5** и что они означают.
SEO-продвижение на YouTube: инструменты и инструкция

SEO-продвижение на YouTube: инструменты и инструкция

С чего начать SEO-продвижение на «Ютубе». Какие факторы ранжирования роликов стоит учитывать. Как оптимизировать видео, канал и плейлист самостоятельно: пошаговая инструкция с примерами. Какие инструменты и сервисы помогут раскрутиться на YouTube.