Как разогнать новостной раздел киберспортивного портала с нуля до 150 000 трафика в месяц с помощью нейросетей и no-code платформ автоматизации

Кейс о том, как мы построили новостной конвейер руками одного редактора, сэкономили сотни тысяч на штате, вышли в Google Новости и обогнали конкурентов с миллионными бюджетами — всё благодаря нейросетям, no-code и куче доработанных GPT-ассистентов. А ещё немного про бунт копирайтеров и нашу постоянную борьбу с ChatGPT.

Как разогнать новостной раздел киберспортивного портала с нуля до 150 000 трафика в месяц с помощью нейросетей и no-code платформ автоматизации

Задача, контекст

Необходимо было вывести киберспортивный портал в топ по трафику за счёт новостного раздела, масштабировать трафик до 500 000 ежемесячно всего за год и доказать поисковикам, что мы — авторитетный источник, способный стабильно публиковать 30–50 новостей в сутки. И всё это с ограниченным бюджетом (100 000 на копирайтинг и 50 000 на запуск).

Ниша: Киберспортивный медиапортал

Срок работ над проектом: Февраль 2024 — по настоящее время (июль 2025).

Позиции сайта на начало работ или с чего всё начиналось?

Скриншот из метрики состояния источников трафика на момент февраля 2024

Портал только запускался. На начало сотрудничества выходило примерно по 3–5 новостей в день. Естественно, этого было недостаточно для того, чтобы выйти в топовые позиции, да и трафика это почти не приносило. При этом на рынке уже были сильные конкуренты с именем: они стабильно публиковали по 30–50 уникальных новостей в день, быстро реагировали на события и удерживали топовые позиции. Чтобы с ними конкурировать, нам нужно было идти в таком же темпе — но без бюджета на полноценную редакцию.

Задача была простая по формулировке, но сложная по реализации: придумать, как с минимальными ресурсами обеспечить около 30–50 уникальных, качественных статей в день. Причём дело было не просто в генерации текстов нейросетью — нужно было добиться такого качества, будто писал человек, который реально разбирается в теме.

Как проводили аудит, какие инструменты использовали?

Перед стартом мы определились с точками роста. Главный приоритет — раздел новостей. Разогнать его можно было двумя способами:

  1. Набрать редакцию, следить за трендами в Google и Яндексе, пытаться брать эксклюзивы.

  2. Или придумать систему, которая позволит работать быстрее и масштабнее и принесёт 500 000 трафика уже через год.

🔍 Используйте поисковые подсказки для выявления трендов

Выявляйте тренды и повышайте охваты с помощью свежего контента с инструментом сбора поисковых подсказок от Топвизора. Оптимизируйте новыми запросами текст ваших страниц для попадания в топ поисковой выдачи.

Первый вариант быстро отпал: бюджета на полноценную редакцию не было, а у команды копирайтеров в запасе только энтузиазм и совсем маленький опыт работы.

Оставался второй путь — понять, как догонять конкурентов без армии журналистов и большого бюджета. И, конечно, мы пошли анализировать.

  1. Анализ конкурентов
    Проанализировали три крупнейших киберспортивных портала в СНГ. Смотрели:
    — сколько материалов выходит в день;
    — по каким дисциплинам публикуют больше всего;
    — как оформлены новости (заголовки, объём, изображения);
    — используют ли нейросети, насколько качественный вообще контент.
    Вывод: к нашему разочарованию конкуренты делали свою работу на славу. У каждого портала — от 30 до 50 уникальных публикаций в день.

  2. Выбор приоритетных дисциплин
    Смотрели на пересечение:
    — частотность запросов (Wordstat, Google Trends, Ahrefs);
    — объём публикаций по каждой игре у конкурентов;
    — интерес аудитории именно в СНГ;
    — календарь турниров на ближайшие месяцы.
    В итоге выбрали три основные дисциплины: Dota 2, CS и Fortnite — они наиболее популярны в России, а также как раз намечался международный чемпионат по некоторым из них.

Инфографики по популярности дисциплин в СНГ 

   3. Типы контента: на чём держится весь трафик

С самого начала было понятно: чтобы выйти на 500 000 пользователей за год, одного формата контента недостаточно.

Мы выбрали сразу четыре направления:

  1. Разгон новостного трафика
    Новости быстрее всего попадают в индекс, дают всплески посещаемости и позволяют выходить в Google Discover, Новости. Конкуренты публиковали по 30–50 новостей в день, и чтобы хотя бы частично догнать их по темпу, мы начали строить систему генерации и постинга с помощью нейросетей и no‑code (в лучших традициях интриг интернета, подробнее об этом мы расскажем позже).
    Ставка — на частоту, скорость, актуальность.

  2. Evergreen‑контент (гайды и справочные статьи)
    Такие материалы не приносят мгновенный трафик, но создают стабильную базу: тянут long tail‑запросы, хорошо ранжируются со временем, удерживают органику.
    Ставка — на стабильный прирост, длительный эффект.

  3. Матч‑центр и турнирная статистика
    Мы подключили базу турниров и начали вести собственный матч‑центр. Он собирает дополнительный трафик на пиковых событиях.
    Ставка — на пиковые всплески и дополнительную индексацию.

инфографика контентной стратегии

Проблемы и точки роста: что нашли и как исправляли

Чтобы просто стабильно публиковать контент и попадать в индекс, пришлось сначала разобраться с целым ворохом технических и организационных проблем.

Точка роста 1: «вечные» тексты в киберспорте быстро умирают

Первая проблема, с которой мы столкнулись, — невозможность полноценно опираться на evergreen‑контент, как это делают сайты в других тематиках. Например, в бытовой нише ты можешь один раз написать гайд «Как выбрать пылесос» — и он будет годами приносить стабильный трафик. В киберспорте это не работает. Почему?

Во‑первых, даже гайды и обзоры здесь устаревают с выходом каждого апдейта игры. А апдейты происходят стабильно: раз в 2–3 месяца разработчики выкатывают патчи. И как только это происходит, старая статья устаревает, её нужно переписывать.

Во‑вторых, казалось бы, можно было бы делать ставку на офлайн‑игры — там обновлений нет, тексты действительно можно писать вдолгую. Но есть нюанс: основная конверсия у проекта идёт с трафика, связанного с онлайном.

скриншот из ГСК падения трафика ключевых запросов по апдейту Dota 2 “Crownfall” в связи с потерей актуальности и выходом нового апдейта

Что с этим делали?

Основную часть из бюджета мы направили редакторам на написание хороших evergreen‑статей и гайдов. Хорошо проработанные статьи готовили опытные авторы — те, кто действительно разбирается в играх. По сути, мы подошли к evergreen в киберспорте как к «условно вечному»: работали с горизонтом 2–3 месяца, после чего шла ревизия.

Точка роста 2: делать новости вручную оказалось долго и выматывающе

Следующий тупик, в который мы быстро упёрлись, — это новости. Казалось бы, простая задача: бери инфоповоды и рерайтить. Но в киберспорте всё иначе. Новости нужно выкладывать быстрее всех. Следить за десятками источников, моментально реагировать, переводить, рерайтить.

Сначала мы попробовали работать по классической схеме: копирайтеры дежурят, мониторят всё подряд, ловят свежаки, оформляют в виде новостей. Но уже через неделю начался бунт. Копирайтеры совсем не рады были нашей идее. Приходилось обрабатывать огромные объёмы информации, и штата на это не хватало.

А главное — мы всё равно проигрывали в скорости. У крупных конкурентов были огромные отделы редакции. С нашей стороны это выглядело как бессмысленная гонка. Мы не могли победить вручную, но не могли и отказаться от новостей: это была ключевая часть стратегии по входу в Discover и Google Новости.

Что мы делали?

Этап 1. Анализ рынка: сколько и каких материалов публикуют конкуренты

Прежде чем что‑то запускать, мы проанализировали три ведущих портала в киберспортивной нише. По каждой дисциплине выгрузили данные и рассчитали среднее количество публикаций в день (к сожалению, подсчёт вёлся ручками редакции).

Что показал анализ:

  • конкуренты выпускают по 30–50 новостей ежедневно;

  • каждая новость — это небольшой по объёму, но уникальный текст;

  • к каждой публикации прикрепляется оригинальное изображение;

  • даже при прогоне через нейросети — рерайт качественный, всё проходит как 100% уникальное.

Чтобы догнать конкурентов, нам нужно было разработать свою систему автоматизации.

Этап 2. Выбор приоритетных дисциплин

Когда мы поняли, что целевой объём — 30–50 материалов в сутки, и каждый должен быть уникален, встал вопрос: о чём писать? В киберспорте десятки дисциплин, но освещать всё подряд бессмысленно, да и нет столько ресурсов.

Что мы сделали:

  • Посмотрели, какие тайтлы чаще всего освещаются у конкурентов с российским трафиком.

  • Собрали семантику по популярным киберспортивным дисциплинам.

скриншот семантики кластера “Новости Dota 2”с частотой 12 842 запроса в месяц
скриншот семантики кластера “Новости CS 2”с частотой 11 278 запроса в месяц
скриншот семантики кластера “Новости Fortnite”с частотой 6 650 запроса в месяц
  • Отследили объём новостей по каждой игре.

  • Сверили с грядущими крупными турнирами (в частности, по Dota 2 и CS в этот период проходили The International и чемпионат по CS).

Результат: выбрали три дисциплины, в которых и аудитория, и инфоповоды, и объёмы публикаций позволяют держать стабильную нагрузку — Dota 2, Counter‑Strike и Fortnite.

Такой выбор позволил:

  1. Упростить распределение тем: примерно по 10 материалов в день на каждую дисциплину.

  2. Попасть в сезонный тренд: мы заранее подгадали выпуск к ключевым турнирам, чтобы не писать «впустую».

  3. Сфокусироваться на интересах именно СНГ‑аудитории — то есть писать не обо всём подряд, а только о том, что будет реально читаться.

Этап 3. Как мы автоматизировали новостной конвейер

Когда стало понятно, сколько материалов нам нужно и по каким темам, мы перешли к главному — внедрению автоматизации.

Откуда идея

Часть команды Art France работает с зарубежными проектами, в том числе на немецком и французском языках. Так что уже давно (ещё до появления Anytype и других современных платформ) мы используем связку Make + GPT. Мы наткнулись на схему одного специалиста из Чили, который полностью автоматизировал новостной конвейер, правда, только для соцсетей. Мы взяли эту идею за основу и начали строить свою модель.

Как выглядела система

Схема была такой:

скриншот потока автоматизации новостей из make.com
  1. RSS‑модуль: собирал новости с заранее отобранных источников.

  2. Настроенный фильтр (GPT): отсеивал материалы, не относящиеся к киберспорту и выбранным дисциплинам.

  3. GPT‑редактор: делал рерайт по редакционной политике.

  4. GPT‑маркетолог: писал мета‑теги, заголовки.

  5. Таблица в Google Sheets: все материалы стекались сюда и ждали подтверждения редактора (в виде проставления галочки в ячейке).

  6. Публикация в WordPress: при подтверждении новость автоматически попадала в CMS, оставалось только нажать «опубликовать».

Как настраивали

Мы начали с RSS. Внесли туда:

  • российские и зарубежные ресурсы (зарубежные особенно ценны — дают информацию быстрее, особенно по международным турнирам). Многие российские журналисты просто не могли попасть на международные события или проходили под нейтральными флагами, так что, ориентируясь на зарубежные ресурсы, мы получали однозначно больше информации;

  • этот список был одобрен главредом (конечно, перед этим он что‑то оттуда выкинул), и затем мы проверили, какие из них можно спарсить;

скриншот источников
  • объединили всё в единый фид — чтобы видеть поток новостей как в соцсети.

скриншот из RSS.APP единой ленты новостей по разным источникам

Затем мы подключили GPT‑фильтр, натренированный на киберспортивную тематику. Он автоматически проверял, относится ли новость к нужной дисциплине. Если да — материал шёл дальше по цепочке. Если нет — отправлялся в отдельную таблицу Google Docs. Там мы вручную проверяли спорные случаи и отслеживали ошибки фильтра, чтобы постепенно улучшать модель и снижать процент ложных отклонений.

Что происходило дальше?

Если материал проходил фильтрацию, он попадал ко второму GPT — уже с редакционной политикой нашего портала. Он переписывал новость, создавая готовую публикацию. После этого запускался третий GPT, который:

  • писал мета‑описание;

  • генерировал заголовки;

  • добавлял мета‑теги для Twitter, VK и других соцсетей;

  • вытаскивал изображение (в дальнейшем мы это тоже автоматизировали).

Все собранные данные падали в Google‑таблицу, где редактор видел свежие новости. Он мог:

  • проставить галочку «одобрено»;

  • или пометить «отклонено».

После подтверждения новость автоматически попадала в WordPress — готовая к публикации.

скриншот из таблички со статусами потенциальных новостных публикаций

И на старте мы даже немного напряглись — стало неожиданно много свежих новостей, и казалось, что такая активность может вызвать подозрения у Google или Яндекса. Мы, конечно, регулярно все тестировали и перепроверяли, и наш контент оставался на высоком уровне, но всё равно было немного страшно.

А потом Google официально заявил, что ему всё равно, кто написал текст — человек или нейросеть. Главное, чтобы контент был полезным. Это сняло последние сомнения — и мы спокойно увеличили поток до 50–60 публикаций в день.

Как создавать ИИ-статьи и избегать санкций поисковиков — советы экспертов Топвизор-Журнала

С какими проблемами мы столкнулись?

Конечно, не всегда всё шло гладко, но на то мы и эксперты в SEO — раз привыкли во всё вникать быстро и чинить на ходу.

Проблема 1. Нестабильная работа фильтра

GPT‑фильтр, который должен был отсекать нерелевантные новости, сначала путался. Он мог спокойно выкинуть нужную статью — или, наоборот, пропустить случайную публикацию, не связанную с киберспортом. В первые дни мы вручную сверяли апрувнутые и отклонённые записи, искали ошибки, дообучали ассистента.

Проблема 2. Страхи внутри команды

Когда стало понятно, что часть текстов пишет нейросеть, начался лёгкий саботаж. Копирайтерам казалось, что мы отнимаем их хлеб. К нам начали поступать жалобы на качество текстов («GPT пишет хе**ю», «так человек не пишет», «это ужасно бездушно»).

Мы на самом деле всегда открыты к критике, и часть замечаний была по делу. Мы показали GPT хорошие примеры, подкормили его редакционной политикой и донастроили стиль. Результат: нейросеть начала выдавать тексты, которые вполне соответствовали формату новостей (а это, напомним, не лонгриды, а заметки на 1500 знаков, с которыми нейросеть вполне может справиться). С несогласными в команде пришлось попрощаться, потому что они попросту мешали двигаться вперёд.

Проблема 3. CMS против автоматизации

Третий затык оказался техническим. Сайт работал на популярной CMS, которая не очень‑то дружелюбна к кастомным доработкам. Мы хотели автоматизировать публикации: чтобы всё, что одобрено редактором, без задержек попадало на сайт. Но CMS оказалась не готова к такому сценарию.

Пришлось лезть в PHP, дописывать скрипты, настраивать связку между таблицей и WordPress.

Проблема 4. Малополезный контент в глазах Google

Когда начали активно публиковать материалы, часть из них в Google Search Console попадала в малополезный контент.

Как решили? Мы подключили редакцию и главреда, собрали обратную связь, пересмотрели подход к генерации. А самое главное — мы постоянно дорабатывали промты. Проблемные тексты рерайтили вручную и отправляли на переиндексацию. В итоге процент «малоценных» страниц снизился, а новые материалы стали проходить индексацию.

Проблема 5. Не все модели ИИ одинаково полезны

Оказалось, что далеко не каждая версия ChatGPT справляется с задачей генерации новостного контента. Мы перепробовали всё, и лишь 4o начала стабильно выдавать логичные, живые тексты. Остальные версии не особо понимали, что от них хотят.

Как решили? Просто тестили каждое новое обновление и молились, что всё на этот раз будет работать лучше, чем прежде.

Мониторинг первых результатов

Мы начали мониторить, как работают публикации. Конечно, сайт до этого был ещё зарегистрирован в Google News (не будем на этом останавливаться — технически это несложно). Главное — мы стали попадать в Google Discover и ленту новостей.

На старте раздел набирал до 50 000 кликов. 

скриншот из метрики начало растущего тренда раздела новостей

Это были очень приятные для глаз цифры, уж поверьте. Но самое интересное — трафик пошёл не только с Discover и Google News. Нас начали находить по поиску Яндекс и Google.

Когда трафик дошёл до 62 000, руководство портала отметило нашу работу и выделило дополнительный бюджет на расширение редакции. Просто они увидели, что наша автоматизация действительно работает и приносит свои плоды. Сейчас мы по‑прежнему используем автоматизацию, но уже в более продвинутом виде — вытащили процесс в Telegram. Этот этап сильно усложнился, подробно это описывать нет смысла, но если кому‑то захочется повторить базовый флоу — пишите нам. Мы поможем всё настроить.

Какие выводы можно сделать

Не нужно бояться нейросетей — нужно бояться плохого контента. Любая ИИ‑модель — это инструмент. Как газонокосилка вместо косы: если вы понимаете, как её включать и как ей пользоваться, то явно быстрее сделаете всю работу. Конечно, нейронка не заменяет редактора, но она хорошо помогает.

Спойлер: к моменту написания кейса мы уже на отметке 392 000 пользователей (суммарно на сайте) и 213 000 посетителей на раздел новостей — цель 500 000 к концу года вполне достижима. И всё потому что мы вовремя подключили нейронки.

скриншот из метрики состояния трафика на всём сайте в разрезе года с уточнением
скриншот из метрики состояния трафика на разделе новостей в разрезе года с уточнением

Также не можем не поделиться позициями проекта по основным ключам. Точки А, к сожалению, не отмечено, так как проект заводился в Топвизор не сразу.

скриншот из отслеживания позиций в Топвизоре по основным кластерам, выбранной стратегии продвижения ч.1
скриншот из отслеживания позиций в Топвизоре по основным кластерам, выбранной стратегии продвижения ч.2

Как можно видеть за год вывели достаточно жирные ключи в ТОП 10, подвинув гигантов с доменами старше 10 лет,  и останавливаться не собираемся.

Плюсы проекта

— Один из ключевых результатов — мы начали подавать в поисковые системы стабильный сигнал: сайт публикует уникальные новости, следит за темой.

— Мы стали выпускать новости раньше всех на СНГ‑рынке. Это критически важно в нише киберспорта: кто первый выложил — того и трафик.

— Мы в разы сократили расходы на редакцию. Один человек в паре с нейросетями мог делать 30–50 публикаций в день — раньше на такой объём требовалась целая команда.

— Весь процесс стал стабильнее: мы не зависели от человеческого ресурса, отпусков.

— Мы помогли команде клиента перестать бояться нейронок. Люди начали сами предлагать идеи, втянулись, стали советовать, как улучшить тексты.

— Редакцию «привязали» к результату: сколько трафика привели — столько и заработали. Это добавило мотивации команде.

— С нашей стороны мы показали себя как специалисты, способные автоматизировать любую рутину в бизнесе.

— Несмотря на то, что в нише уже есть гиганты, которым по 5–6 лет, наш проект смог откусить около 10% трафика у этих старожилов. Это, пожалуй, самое приятное, что произошло ☺

Минусы проекта

— Самый главный минус, если его можно так назвать, — не все готовы работать с нейросетями. Кто‑то боится, кто‑то считает это «временным хайпом». Большая часть команды всё‑таки смогла перестроиться, но с кем‑то мы попрощались.

Проект получился сильным, и несмотря на все трудности, я считаю, что мы добились колоссальных результатов. А дальше — шлифуем процесс, ускоряем темп и пробуем/внедряем новые инструменты. Чтобы было о чём рассказать в следующем кейсе 🙂

P.s. кстати, это лишь малая часть того, что мы сделали на проекте, с помощью нейронок. Примеры задач, которые были решены ниже: генерация косплея, аудио транскрибация статей, генерация изображений высокого качества с игровой аутентичностью и т.п.

Хотите денег, а не трафика в SEO? Пишите в личку в Telegram.

Наш канал по автоматизации SEO: https://t.me/seo_main.

С любовью ART France