Измените языковые настройки Топвизор для работы с сервисом на родном языке. Вы также сможете выбрать и установить язык интерфейса позже в настройках Аккаунта. Измените языковые настройки Топвизор для работы с сервисом на родном языке. ru Русский Выбрать

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

Я.Вебмастер покажет дубли страниц с незначащими GET-параметрами

В разделе «Диагностика» в Вебмастере появилось специальное уведомление, которое расскажет про дубли страниц из-за GET-параметров. 

Блог Яндекса для Вебмастеров: Что такое незначащие GET-параметры и зачем отслеживать дубли

Ничего делать не нужно, уведомление появляется автоматически, если дубли обнаружены. 

Уведомление о дублях
Уведомление о дублях

Яндекс предупреждает о задержке в обработке данных в 2-3 дня. Поэтому если вы увидите в уведомлении исправленные страницы, скорее всего это связано именно с задержкой и нужно подождать. 

Важно

Дубли с параметром amp, даже если они у вас есть, Вебмастер не покажет.

Три способа как оставить в поиске нужную страницу

  1.  Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Тогда робот не будет много раз обходить повторяющийся контент.
  2. Если добавить Clean-param нет возможности, то укажите канонический адрес страницы, который будет участвовать в поиске. При этом роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical.
  3. Закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц.
Самый лучший способ – первый, с добавлением директивы Clean-param. Яндекс рекомендует использовать именно его. 

Уточнение Яндекса

«Директива Clean-param – межсекционная, это означает, что она будет обрабатываться в любом месте файла robots.txt. Указывать ее для роботов Яндекса при помощи User-Agent: Yandex не требуется. Но если вы хотите указать директивы именно для наших роботов, убедитесь, что для User-Agent: Yandex указаны и все остальные директивы – Disallow и Allow. Если в robots.txt будет указана директива User-Agent: Yandex, наш робот будет следовать указаниям только для этой директивы, а User-Agent: * будет проигнорирован».

Подробнее о работе со страницами-дублями читайте в Справке.

Получайте интересные новости первыми, подписывайтесь на наш телеграм-канал.

Подписаться 




Теги: yandex
23 0
Оставьте свой комментарий
Чтобы оставить комментарий, авторизуйтесь

Советуем почитать

Самое масштабное исследование CTR в поиске Google: seoClarity 2021

Самое масштабное исследование CTR в поиске Google: seoClarity 2021

Компания проанализировала, как меняется показатель кликабельности (CTR) в зависимости от позиций сайта в Google по странам, устройствам и отраслям.
Самые частые SEO-ошибки на сайтах

Самые частые SEO-ошибки на сайтах

Какие ошибки чаще всего встречаются на сайтах и как они влияют на поисковую выдачу.
Как избежать санкций за автогенерацию страниц через умный фильтр

Как избежать санкций за автогенерацию страниц через умный фильтр

Расскажу, стоит ли генерировать страницы, как не попасть под фильтр НКС, по какой формуле генерировать Title и Description, и покажу проект, где удалось это реализовать.