Ошибки жертв Core Updates и HCU: анализ двух примеров
Обновления алгоритмов Google всегда сказываются на сайтах, но иногда падения трафика особенно интересно исследовать. В этой статье — о закономерных ошибках, которые часто встречались на сайтах, потерявших трафик.
Почти год назад Google начал выкатывать серию обновлений, которые сменяли друг друга практически один за другим, заставив мир SEO говорить о «бесконечном сезоне обновлений Google».
Стремительная череда из трёх обновлений ядра (август, октябрь и ноябрь), полезного контента (сентябрь), спама (октябрь) и отзывов (ноябрь) стала причиной резкого падения позиций для многих сайтов или внезапной «смерти» для других.
Мартовские Core и Spam Update этого года не принесли значимых улучшений для многих сайтов, пострадавших от предыдущих обновлений. Напротив, во многих случаях ситуация стала ещё хуже.
❗️ Джанлука Фиорелли проанализировал большое количество сайтов, которые потеряли трафик во время апдейтов. Мы перевели и адаптировали исследование для русскоязычной аудитории. Названия сайтов и их URL-адреса в статье не используются.
1. Обилие старого контента и «страниц-сирот»
Иногда сканирование не может показать нам истинное ухудшение состояния сайта — он может выполнять свои функции, но контент на нём давно пора обновить.
Технически испанский портал с новостями и целевыми страницами, ориентированными на пожилых людей, выглядел относительно хорошо и не представлял собой какой-либо серьёзной проблемы.
Тем не менее Google задевал его почти на каждом обновлении:
Автор оригинальной статьи настроил краулер на сканирование органических целевых страниц, которые он мог получить из Search Console и Analytics, и выявил наличие большого количества так называемых «страниц‑сирот». Страница считается «сиротой», если она индексируется, но на неё не ссылается ни одна страница сайта.
Часто они указываются только в карте XML, но это не тот случай: краулер нашёл старые страницы, которые по какой‑то причине всё ещё были на сайте.
Автор оригинальной статьи начал анализировать их и вскоре обнаружил, что это URL‑адреса архитектуры сайта, существовавшей до появления новой, причем такой, которая не только нарушала текущую структуру портала, но и предоставляла противоречивую информацию о самой организации контента и для поисковой системы, и для пользователя.
Проблемы, однако, никогда не существуют поодиночке, и в данном случае тоже. Кроме того, что многие статьи, присутствующие в этих старых «зомби‑категориях», оказались «сиротами», многие были очень старыми. Их содержание уже неактуально. Например, в подкатегории «Новые технологии» была интересная статья о Microsoft Word 2003 😅
В целом наличие нескольких неактуальных страниц на сайте не проблема. Она возникает, когда целые категории состоят только или преимущественно из старого контента. Именно так обстояло дело со многими категориями портала, о котором сейчас речь.
Однако проблема деградации контента затронула не только эти бесхозные категории, но и те, по которым регулярно осуществляется навигация на сайте, и где теоретически должно было быть больше свежего или, возможно, обновлённого контента.
Наглядный пример того, как обновление от октября 2023 года повлияло на статьи на портале, можно было наблюдать в марте 2024‑го.
Этот портал ориентирован на аудиторию пожилых людей, и поэтому многие его категории посвящены здоровью, психологии, выходу на пенсию, проблемам, связанным с домами престарелых, наследством и другими юридическими темами.
Иными словами, темы, легко укладывающиеся в концепцию YMYL, которым, по крайней мере официально, Google уделяет особое внимание с точки зрения качества, коррекции и актуальности предлагаемой информации.
Даже просто при использовании опроса, который Google представляет на тему «Создание полезного, надёжного, ориентированного на людей контента», для многих статей на портале ответы были бы «нет». То есть эти страницы не отвечали требованиям YMYL.
Важные проблемы возникли и в других разделах сайта, некогда очень успешных, многие из которых играли с идеей ностальгии: биографии известных людей, чьими поклонниками является/была целевая аудитория, «что произошло в этот день», «приятные воспоминания» и т. д.
Со временем все эти разделы перестали поддерживаться, что привело к серьёзным проблемам, таким как биографии, рассказывающие об уже умерших людях в таком виде, будто те живы, или короткие статьи о сериалах, в которых представлены очень старые вставки с YouTube в плохом качестве.
Пользователи негативно оценивали качество сайта, о чём свидетельствовали параметры вовлеченности (время на странице, показатель отказов и прочее) в Google Analytics.
В каждом отдельном случае эти проблемы могут показаться не такими уж серьёзными, потому что есть другие дела, которые нужно решить и которые кажутся более важными. Однако со временем они накапливаются, и именно вокруг них и разворачивается большая часть критики Google.
Что можно было бы исправить на этом сайте:
-
Оптимизировать архитектуру сайта, чтобы добиться большей согласованности его элементов и устранить лишние, а то и вовсе дублирующие друг друга.
-
Удалить или исправить наиболее очевидный старый и некачественный контент. При этом важно оценивать его по следующим пунктам:
-
просмотры страницы;
-
сколько сеансов и общее количество пользователей перешли на страницу из других каналов, кроме органических;
-
каков вклад каждой страницы в конверсии и микроконверсии, если они были;
-
количество ключевых слов, по которым каждая страница произвела впечатление (impressions) в Google Search;
-
количество и качество обратных ссылок на каждую страницу;
-
насколько каждая страница способствует внутренней перелинковке с помощью внутренних ссылок в контенте.
Затем автор статьи разработал следующие правила:
-
Если полученные параметры в основном плохие, контент должен быть удалён.
-
Если они в основном положительные, контент должен быть помечен меткой «на обслуживание» и для него необходимо составить календарь регулярных обновлений.
-
Если параметры очень хорошие, URL помечается как высокоприоритетный контент, то есть контент, чьи показатели должны регулярно отслеживаться, качество — улучшаться (например, изменение вставки в случае видео на YouTube) и, если это так, обновляться раньше других, чтобы сохранить свежесть.
2. Переизбыток программного SEO и «размытого», «тонкого» контента
Следующая проблема встретилась на сайте, специализирующемся на загородных домах. Его владелец тоже пострадал от обновлений и также увидел причину своих проблем в контенте. Клиент провёл диагностику, опираясь только на HCU.
Самым важным разделом сайта с точки зрения органического трафика был блог, и его видимость снизилась одновременно с выходом HCU:
Винить обновление полезного контента было, на первый взгляд, правильно. Доказательства были налицо: блог потерял позиции почти по 2 500 ключевым словам в ТОП‑10:
Как вы можете легко заметить, в среднем потери составляют около 2–3 позиций, но этого достаточно, чтобы обозначить значительное снижение CTR, а значит, и органического трафика.
Однако это не похоже на классическое «крушение», примеры которого мы видели в сентябре 2023 года, а нечто более «спокойное».
Классические проблемы с HCU в данном случае неприменимы:
-
Это корпоративный блог, доход которого не зависит от показа рекламы.
-
Авторы не анонимны — напротив, они хорошо известны в отрасли и считаются экспертами.
-
Сам сайт — не «ещё один туристический партнёрский сайт», а признанный портал в своей нише.
-
И наконец, казалось, что только он теряет видимость для того типа контента, который другие десятки сайтов публиковали и продолжают публиковать практически в том же стиле:
А что насчёт активности в определённые времена года? Ниже вы можете увидеть, насколько снизилось количество запросов по запросу «сельские дома» в Испании в период со второй недели августа по вторую и третью недели сентября:
Google Search Console также не указывает на потерю трафика во время и сразу после HCU:
Существовали потенциальные проблемные шаблоны, которые могли спровоцировать незначительное воздействие. Некоторые из них, несомненно, оказали более сильное влияние позже на уже ослабленный сайт (март 2024 года), но другие конкуренты не получили никакого негативного эффекта от HCU.
Поэтому автор оригинальной статьи решил исключить из анализа влияние блога и изучить сферу загородных домов. Там он нашёл настоящую проблему для этого сайта: обновление Core Update от октября 2023 года (снова).
Если вы ещё раз посмотрите на график Search Console выше, то заметите, как он перекликается с октябрьским обновлением Core Update (и Spam Update):
Падение очевидно, и, используя SISTRIX для анализа ранжирования, можно увидеть, что 56 989 неблоговых ключевых слов из 65 769 попали в ТОП‑10 позиций, потерявших релевантность.
Была ли эта потеря связана с тем, что Google изменил способ отображения результатов поиска? Не совсем. Функции поиска остались практически такими же, как и до обновления, равно как и воспринимаемые поисковые намерения.
В чем же тогда была проблема? Архитектура опять же была раздута до чрезвычайно высоких и опасных пределов с помощью программного SEO, породив тысячи новых категорий и многогранных навигационных страниц, которые и привели к этому:
-
«тонкий» контент (thin content, недостаточный контент), а именно перечисление только одного или двух загородных домов, если другие не были доступны;
-
существенное дублирование контента, когда два населённых пункта имели одинаковые дома в силу того, как была разработана база данных.
Как быстро найти и убрать дубли страниц
-
Излишнее распределение (даже размывание) ссылочного веса из‑за слишком раздутой внутренней перелинковки.
-
Большинство продуктов не имели объёма поиска. Что, учитывая относительную важность показателей вовлечённости пользователей в поисковой выдаче, означало 0 кликов и почти 0 показов.
Самым ярким примером стал раздел, созданный для представления загородных домов вблизи важных достопримечательностей. Хотя контента идея интересная, она может привести к большим проблемам, если довести её до предела.
Например, в одном из вариантов были предложены « загородные дома рядом с Пуэрта‑дель‑Соль» (центральным районом Мадрида), а в другом — «загородные дома рядом с парком Ретиро» (самым важным общественным парком Мадрида):
-
Загородные дома — это сельская местность, поэтому только странно рассматривать объявления об этом типе жилья в большом городе (в данном случае — столице). Другая причина — поиск по запросу «загородные дома рядом с Мадридом».
-
Даже если бы такие домики существовали в Мадриде, расстояние между Пуэрта‑дель‑Соль и парком Ретиро настолько невелико, что сельские дома неизбежно оказались бы одними и теми же.
К сожалению, эта проблема была выявлена только после того, как обновление Core Update от марта 2024 года снова и с ещё большей силой обрушилось на сайт.
Что нужно сделать на этом сайте:
-
Почистить архитектуру с целью устранения всех фасетных навигаций и категорий, которые бесполезны как для пользователей, так и для видимости сайта.
-
Пересмотреть и оптимизировать базы данных загородных домов и правил автоматизированного создания страниц (например, уменьшить радиус охвата, который ранее был очень большим и приводил к возникновению дубликатов).
-
Пересмотреть и оптимизировать автоматизированные правила внутренней перелинковки для более точного определения приоритетов наиболее важных предложений.
-
Создать календарь для навигации и пересмотра и оптимизации внутренних ссылок с целью более точного определения направлений в зависимости от сезонности.
Что такое внутренняя перелинковка и как её сделать
Теперь к блогу этого сайта. У него тоже были проблемы, которые привели к тому, что HCU слегка задел его в сентябре.
Но почему многие другие сайты, создающие практически такой же контент, не пострадали? Напротив, многие из них получили лучшие показатели.
Этот случай немного перекликается с первым примером, который мы рассмотрели выше. Посмотрите на записи в блоге, которые потеряли больше всего трафика. Что у них общего?
Посты в блогах были написаны по повторяющимся шаблонам — как списки статей, содержащие не так много полезной информации.
Не то чтобы сайты конкурентов не делали то же самое, но клиент автора статьи делал это в слишком больших масштабах.
Качество было не хуже, чем у других блогов, не затронутых обновлением Core Update от 24 марта (допустим, все они имеют среднее качество). Но частота и количество в блоге клиента были больше. Поэтому сайту не удалось преодолеть порог допустимого количества «контента низкого или среднего качества», который, возможно, установил Google.
Вот что здесь нужно сделать:
-
Преобразовать листинги в страницы‑столбцы. Сохранив формат, сделать их более полезными, предлагая не общую информацию, которая есть на каждом другом сайте, а ответы на такие вопросы, как:
-
Что нельзя пропустить при посещении этого места?
-
Что мы как эксперты по организации путешествий хотим выделить, о чём обычно не говорят?
-
Есть ли здесь интересные места, которые можно увидеть или посетить, если мы путешествуем с детьми или без?
-
Когда лучше всего посетить это место?
-
Как добраться до этого места?
-
Создать контентные кластеры, подробно раскрывающие тему, представленную в столбце (подробные путеводители по отдельным закоулкам, пешеходные маршруты или замок X в местечке Y...).
-
Оптимизировать внутреннюю перелинковку узлов контента.
-
Оптимизировать внутреннюю перелинковку между связанными материалами, но принадлежащими к разным контент‑центрам, благодаря более разумному использованию классических элементов, таких как теги.
Ещё несколько ошибок, которые встречаются на сайтах
Это всего лишь два случая из множества проанализированных сайтов, пострадавших от одного или нескольких обновлений, которые Google запустил год назад.
Некоторые из них имели свои особенности, а некоторые были вполне конкретными, как, например, сайт, на котором долгое время публиковались новости из мира футбола. И когда тип контента изменился, пользователи перестали читать блог.
Но в целом все сайты демонстрируют закономерности, общие с теми, что описаны в двух примерах, представленных в этой статье.
К ним относятся:
-
Постепенное снижение технического качества сайта. Так бывает, когда игнорируются мелкие проблемы, которые, скапливаясь, становятся серьёзными.
-
Ухудшение архитектуры сайта либо её плохая логика с самого начала. Многие проблемы в SEO возникают из‑за плохой архитектуры.
-
Отсутствие баланса. Программное SEO потрясающе и обязательно к использованию во многих случаях, но слишком много программного SEO неизбежно приводит к катастрофе.
-
Неверный контент. Многие сайты создавали контент с оглядкой на конкурентов, которые ранжируются лучше, вместо того чтобы основываться на том, что хотят найти их потенциальные пользователи, и отвечать на эти потребности уникально и не так, как другие. Почему Google должен поощрять очередной контент, который ничем не отличается от других, больше, чем вас? Также не стоит настаивать на однотипном рабочем формате и контенте только потому, что он «работает»; его постоянное повторение кажется неестественным и даже спамерским.
Обновления, особенно касающиеся ядра, затрагивают столько переменных, что иногда кажется, будто одно или несколько решений (например, «убрать рекламу» или «писать только о том, в чём вы разбираетесь») могут решить все проблемы. Однако это не так, потому что иногда эти решения невозможно реализовать на практике.
Например, если нет рекламы, какую бизнес‑модель можно использовать вместо неё? Или как получить «непосредственный опыт» обо всём, что тематически связано с вашими основными темами?
Уделите достаточно времени тщательному анализу каждого раздела вашего сайта. Воспользуйтесь Search Console и Analytics (а для Яндекса — Яндекс Вебмастером и Метрикой), а также информационными сервисами, например Топвизором.
🔎 Анализ сайта поможет провести полноценный технический аудит вашего сайта в один клик.
Он соберёт ключевые данные и подскажет, как исправить ошибки и предупреждения, которые мешают получить максимум от SEO‑продвижения.
Вот что он показывает:
-
битые ссылки, картинки, URL;
-
размеры изображений, их тип, наличие/отсутствие alt‑текста;
-
временные и постоянные редиректы, цепочки редиректов;
-
Core Web Vitals;
-
Title, Description, H1 и другие метатеги;
-
наличие и корректность заполнения микроразметки;
-
robots.txt и sitemap.xml;
-
JavaScript и CSS;
-
проблемы с URL;
-
и другие показатели.
Все эти программы помогут вам определить реальные проблемные места. Не забывайте, что иногда причина низкой позиции сайта в поисковой выдаче может быть не в самом сайте, а в изменении алгоритмов Google. Возможно, Google добавил новые функции поиска или изменил цель поиска по определённым запросам, по которым ваш сайт раньше занимал лидирующие позиции. Это означает, что поиск постоянно развивается, и ваша стратегия SEO должна развиваться вместе с ним.
Ещё по теме
Отслеживаем влияние апдейтов Google на метрики сайта с помощью Google Data Studio
Всё об алгоритме Google: как думает поисковая система
Что известно об алгоритме после утечки внутренней документации Google