March Core Update официально завершён

Оказывается, это произошло ещё неделю назад.

March Core Update официально завершён

Развёртывание произошло ещё 19 апреля, однако об этом стало известно только неделю спустя. Компания не анонсировала это сразу. Пользователи отмечают, что это иллюстрирует проблему взаимодействия между Google и пользователями.

В отличие от более обычных обновлений ядра, Google предупредил, что это более сложное обновление. В его процессе владельцы сайтов сообщали о потере более чем 60 % органического трафика. Множество ресурсов также было деиндексировано.

Google запустил форму обратной связи, чтобы пользователи могли оставить отзывы. Также в англоязычную версию документации добавлена информация о влиянии обновлённых алгоритмов и их идентификации. Так пользователи смогут определить причины падения трафика.

В документации Google Crawler появился новый список IP‑адресов

Краулеры, инициируемые пользователем, — это инструменты и функции продуктов Google, где конечный пользователь запускает выборку.

В ПС теперь добавлен дополнительный список IP‑адресов для сборщиков. Новый список, user‑triggered‑fetchers‑google.json, содержит диапазоны IP‑адресов. которые использовались в течение длительного времени.

На страницу проверки также Googlebot добавлена новая информация:

«Сборщики, контролируемые Google, берут начало с IP‑адресов в объекте user‑triggered‑fetchers‑google.json и преобразуются в имя хоста google.com. IP‑адреса в объекте user‑triggered‑fetchers.json преобразуются в имена хостов gae.googleusercontent.com. Эти IP‑адреса используются, например, если сайт, работающий в Google Cloud (GCP), имеет функцию, которая требует получения внешних RSS‑каналов по запросу пользователя этого сайта».

Ранее Google тестировал IP‑прокси.

В Google Publisher Center больше нельзя добавлять публикации

Теперь они будут добавляться автоматически, когда алгоритмы поисковой системы посчитают это нужным. 

Как это выглядит:

Ручное добавление публикации в Google Publisher Center. Источник: SER
Ручное добавление публикации в Google Publisher Center. Источник: SER

Google объяснил, что старый способ позволял издателям вручную создавать исходную страницу, чтобы пользователи могли следить за ней в News и на других платформах.

В Google заявили:

«У издателей, страницы публикаций которых создаются вручную, доступ к функциям настройки останется до конца этого года, когда страницы перейдут на автоматическое создание. Пользователи по‑прежнему смогут следить за своими любимыми публикациями».

Системы Google автоматически определяют и ранжируют подходящий контент на основе таких факторов, как релевантность, известность, авторитетность, свежесть, местоположение и язык. Контент, который соответствует требованиям, может появиться на других платформах, но компания не гарантирует этого.

Ранее в Publisher Center возникла ошибка «Нет результатов для отображения».

Google и Microsoft увеличили доходы от рекламы на 13 % и 12 % соответственно

По сравнению с прошлым годом прибыль от рекламы возросла. Компании делятся отчётами и графиками, которые отражают общее развитие.

Как выглядит график Google:

График общего дохода Google. Источник: SER
График общего дохода Google. Источник: SER

Как выглядит график Microsoft:

График общего дохода Microsoft. Источник: SER
График общего дохода Microsoft. Источник: SER

Ранее стало известно, что рекламные баннеры «Покупай все предложения» появляется в 40‑50 % случаев.

Google Chrome всё ещё поддерживает cookie

Компания откладывает прекращение поддержки сторонних файлов. Последняя отсрочка произошла из‑за продолжающихся проблем с согласованием отзывов заинтересованных сторон отрасли и регулирующих органов.

Google сообщил:

«Мы осознаем, что существуют постоянные проблемы, связанные с согласованием различных отзывов со стороны отрасли, регулирующих органов и разработчиков, и продолжим тесное взаимодействие со всей экосистемой. Также очень важно, чтобы у CMA было достаточно времени для рассмотрения всех доказательств, включая результаты отраслевых испытаний, которые CMA попросила участников рынка предоставить к концу июня».

Неоднократные задержки подчёркивают потенциальные проблемы для цифровых издателей и рекламодателей, полагающихся на отслеживание сторонних файлов cookie.

Отраслевые группы выразили обеспокоенность тем, что ограничение межсайтового отслеживания может подтолкнуть сайты к более непрозрачным практикам, нарушающим конфиденциальность.

Защитники конфиденциальности считают, что поэтапный отказ имеет решающее значение для предотвращения скрытого профилирования пользователей в сети.

Пользователи и ранее замечали, что Google может столкнуться с невозможностью прекратить поддержку cookie.

Google опубликовал исследовательскую работу о новой технологии

Она называется Infini‑attention и предназначена для обработки большого объёма данных с «бесконечно длинными контекстами».

Эту технологию можно легко встроить в другие модели, в том числе и в Gemini. Тогда LLM получает возможность обрабатывать более длинные контексты, сжимая при этом ненужную память и необходимую вычислительную мощность.

Infini‑attention может:

  • сжимать часть старой информации, чтобы уменьшить объём пространства, необходимого для хранения данных;
  • помочь LLM с обработкой информации, которая находится в последовательности;
  • обрабатывать близлежащие (локализованные) части входных данных, что полезно для ответов, которые зависят от более близких частей данных.

Объединение долгосрочного и локального внимания помогает решить проблему ограниченности преобразователей объёмом входных данных, которые они могут запомнить и использовать для контекста.

Исследование поисковой выдачи Perplexity AI раскрыло возможности для сайтов электронной коммерции и положительные новости для SEO.

Google подчёркивает необходимость проверять факты

В контенте, который был создан искусственным интеллектом. В недавнем выпуске подкаста Google Search Off The Record члены команды познакомились с Gemini, чтобы изучить создание контента, связанного с SEO.

Анализируя результаты Gemini, Гэри Иллис выделил ограничение, свойственное всем инструментам искусственного интеллекта:

«Моя самая большая проблема почти со всеми генеративными искусственными интеллектами — это фактичность: вам всегда нужно проверять факты, что бы они ни написали. Меня это пугает: теперь мы просто будем читать вживую вещи, которые, возможно, даже не правдивы».

Google предупреждает, что генеративный ИИ может допускать фактические ошибки, поэтому настаивает на перепроверке.

Ранее исследователь Дэн Рассел тестировал ИИ на базе данных о композиторах.

Теги: