Как исследовать ключевые слова на Reddit — находим новые возможности для контента
В статье всё о Reddit как об источнике идей для контента. Разбираем, зачем и как его использовать, а также показываем специальный скрипт для работы с Reddit.
В этом руководстве — всё о поиске ключевых слов на Reddit. Частично это упоминалось в руководстве по косвенному SEO. Но здесь мы более подробно остановимся на исследовании ключевых слов с использованием именно Reddit.
❗️ Это перевод и адаптация статьи Энди Чедвика для блога Keyword Insights. Ещё это руководство можно посмотреть в формате видео на YouTube.
Важное замечание: в статье показана работа скрипта, получить ссылку на который можно, только подписавшись на email‑рассылку Keyword Insights.
Почему стоит использовать Reddit для поиска ключевых слов
Reddit — это огромная онлайн‑платформа, на которой собираются пользователи со всего мира, чтобы делиться контентом, новостями и мнениями. Он разделен на тысячи «сабреддитов» (форумов внутри форума), каждый из которых посвящен определенной теме или интересу.
Люди приходят на Reddit, чтобы задать вопросы его разнообразному и активному сообществу. Платформа предлагает уникальное сочетание компетентности, личного опыта и открытых дискуссий, что делает её идеальным местом для поиска советов, сбора различных мнений и изучения коллективных знаний пользователей.
Люди часто обращаются на Reddit за ответами, которые не могут найти в других местах. Это может быть связано с тем, что их вопрос слишком специализированный, личный, слишком свежий или же они ищут непредвзятый, искренний совет.
Один из интересных аспектов Reddit — пользователи часто не проверяют, задавался ли их вопрос ранее, что приводит к появлению одних и тех же запросов в различных формах. Эта избыточность является ключевым моментом для стратегии исследования ключевых слов на Reddit.
И вот почему: когда вопрос (или утверждение) повторяется на Reddit, это часто указывает на две вещи:
-
Существует пробел в доступном достоверном онлайн‑контенте, отвечающем на этот вопрос.
-
Несмотря на то что традиционное исследование ключевых слов может быть сосредоточено на отдельных популярных ключевых словах, оно упускает из виду, что один и тот же вопрос может быть сформулирован множеством способов, каждый из которых имеет свой собственный объём поиска.
Запрос, который кажется небольшим по объёму поиска, на самом деле может представлять собой большую незадействованную аудиторию, если учесть все его вариации.
Например, вопрос со 100 различными формулировками, каждую из которых ищут 10 раз в месяц, на самом деле имеет общий объём поиска 1 000, а не 10. Даже запросы с нулевым объемом могут ввести в заблуждение; если мы находим 100 похожих версий вопроса, очевидно, что на него есть спрос. Такие возможности можно легко найти с помощью инструмента анализа ключевых слов, например Топвизора.
Посмотрим пример. Запрос «тим фортресс 2 на андроид» как будто бы имеет небольшой объём поиска:
При этом этот вопрос неоднократно задаётся на Reddit:
Таким образом, это может быть интересное ключевое слово для бренда соответствующей тематики.
Методология статьи основана на этих знаниях. Мы стремимся выявить ключевые слова, которые часто встречаются на Reddit и для которых обсуждения на форуме занимают высокие позиции. Это указывает на отсутствие удовлетворительных ответов в интернете, что даёт возможность эффективно заполнить пробелы в контенте.
❗️ В нашей стране Reddit не очень популярен: российские пользователи занимают всего 1,8 % от всех пользователей форума.
В России популярны другие форумы: Drom (автомобили), E1 (региональные форумы), 4PDA (смартфоны), Littleone (семья и дети), iXBT (компьютеры), B17 (медицина и психология) и так далее.
Ещё популярны сообщества «Пикабу» (102 млн трафика в месяц) и «Ответы Mail.ru» (131 млн в месяц): они по своему функционалу максимально похожи на Reddit. Там люди задают вопросы друг другу. Эти площадки можно использовать для извлечения ключевых слов, как Reddit.
Как извлекать ключевые слова из Reddit: метод 1
Этот подход является быстрым и простым, но важно отметить, что ключевые слова, которые мы определяем, также доступны нашим конкурентам, поскольку в процессе мы используем универсальные инструменты исследования ключевых слов.
Однако доступность не обязательно означает, что конкуренты активно используют эти ключевые слова. Как уже говорилось, многие из них сосредотачиваются исключительно на отдельных ключевых словах с высоким объёмом поиска. При этом они часто упускают из виду возможность объединения нескольких ключевых слов с низким объёмом поиска для получения более точной совокупной картины поискового спроса. Этот недочёт означает, что такие кластеры ключевых слов часто игнорируются, что приводит к образованию ценной ниши, которую можно использовать с выгодой для себя.
1. Найдите подходящие сабреддиты
Чтобы понять, какие сабреддиты искать, посмотрите этот список. В нём представлены все основные сабреддиты на Reddit. Ещё можно просто ввести ключевое слово в строку поиска Reddit и просмотреть появившиеся сабреддиты.
2. Добавьте эти сабреддиты в выбранный вами SEO‑инструмент
Введите URL нужного сабреддита в строку поиска Анализа конкурентов от Топвизора и нажмите «Построить отчёт».
Сервис покажет, по каким ключевым словам ранжируется тот или иной сабреддит (или другой форум). Мы выбрали здесь тему, объём поиска которой в России не очень высок.
Вот такие результаты выдал нам сервис: в России этот домен ранжируется по 250 поисковым запросам. Их можно взять в работу для создания контента.
❗️ Анализ конкурентов — это инструмент для поиска и анализа конкурентов и их запросов в органической и рекламной выдаче Google и Яндекса. Также в нём можно:
-
найти запросы, по которым ваш сайт и сайты конкурентов ранжируются в поиске;
-
посмотреть сниппеты и дополнительные блоки, которые отображаются в выдаче по запросам;
-
узнать частоту, цену клика, трафик, релевантную страницу по запросам;
-
проанализировать структуру сайтов конкурентов: запросы, трафик, среднюю позицию по каждой странице;
-
найти своих конкурентов, их уникальные и общие с вашим сайтом запросы;
-
посмотреть запросы, по которым отображаются рекламные объявления и полный текст объявлений.
3. Примените фильтры
Наша цель — получить общие ключевые слова, по которым форумы (в частности, Reddit) занимают первые строки. Это отличный признак того, что другие материалы в интернете не освещают эту тему так, чтобы это устраивало пользователей.
Для начала добавим фильтры, чтобы отсеять все ключевые слова, по которым люди хотят получить обзор тех или иных устройств. Чтобы исключить слово из отчёта, нужно ввести его в следующем формате:
!/слово/
И ввести его в раздел «Фильтр» в левом верхнем углу интерфейса.
Также нужно добавить фильтр, чтобы показывать только те результаты, где выдача Reddit занимает очень высокие позиции:
Представьте, что у вас огромный объём ключевых слов: с помощью этих двух способов фильтрации вы можете его значительно сократить. У вас останется практически чистая семантика, с которой можно работать.
4. Экспортируйте ключи
Экспортируйте ключевые слова и приготовьтесь загрузить их в выбранный вами инструмент кластеризации ключевых слов. Об этом мы расскажем чуть дальше в руководстве.
Как извлекать ключевые слова из Reddit: метод 2
Следующий метод, который мы рассмотрим, немного сложнее. Вы можете использовать его как замену первому методу, так и в дополнение к нему. Лучше комбинировать его с первым методом для достижения более высоких результатов.
Этот метод предполагает извлечение ключевых слов, которые обычные инструменты SEO могут пропустить. Для этого мы определяем все релевантные сабреддиты и собираем из них как можно больше вопросов. Чтобы упростить этот процесс, автор статьи разработал скрипт Google Colab, который автоматизирует эти задачи. Вот что делает скрипт:
-
Сначала он получает CSV‑файл со списком сабреддитов, из которых вы хотите получить вопросы.
-
Затем скрипт извлекает столько вопросов, сколько может, из этих сабреддитов.
-
Затем он компилирует все эти вопросы в один столбец в новом CSV‑файле.
❗️ Получить скрипт можно только после подписки на рассылку Keyword Insights.
Кроме того, есть необязательная часть скрипта.
Если у вас есть ключ Open AI API, заключительная часть сценария «очистит» вопросы, удалив различные разговорные и неформальные выражения, которые обычно встречаются в них, чтобы сделать данные более подходящими для анализа.
1. Создайте свой API для Reddit
Мы будем использовать API для сбора всех вопросов на Reddit.
1. Создайте аккаунт Reddit.
2. Зарегистрируйте свое приложение.
-
Перейдите на страницу приложения Reddit (https://www.reddit.com/prefs/apps).
-
Прокрутите страницу вниз до раздела «Разработанные приложения» и нажмите на кнопку «Создать приложение» или «Создать другое приложение».
-
Заполните форму, указав необходимые данные:
-
имя — дайте название вашему приложению;
-
тип приложения — выберите подходящий тип приложения (веб‑приложение, установленное или скрипт);
-
описание — дайте краткое описание вашего приложения (необязательно);
-
URL‑адрес — если у вас есть веб‑страница с дополнительной информацией о вашем приложении, укажите её URL (необязательно);
-
параметры — выберите параметры, которые потребуются вашему приложению;
-
URL для переадресации — вы можете использовать http://localhost.
-
3. Получите учётные данные.
-
Как только ваше приложение будет создано, Reddit предоставит вам ID клиента и секретный код клиента. Они очень важны и должны храниться в тайне.
-
Идентификатор клиента находится прямо под названием приложения.
-
Секретный код клиента находится в деталях приложения.
2. Найдите подходящие сабреддиты
Сначала определите сабреддиты, которые относятся к вашей теме. Как это делать, описано в первом методе.
В CSV, который принимает скрипт, нужно только указать название сабреддита в одном столбце. Поэтому добавьте всё вот так:
Сохраните как CSV и назовите его “subreddits.csv”.
3. Откройте скрипт Google Colabs и загрузите CSV
Затем вам нужно будет открыть файл Google Colabs.
Google Colabs — бесплатная онлайн‑платформа для кодирования, которая позволяет писать и выполнять код на Python в браузере. Она не требует настройки, предлагает бесплатный доступ к мощным вычислительным ресурсам, таким как GPU, и отлично подходит для совместной работы подобно Google Docs.
Каждый участок кода находится в «блоке кода». Во втором блоке вам нужно добавить свой ID и секретный код Reddit, которые вы получили на шаге 1. Также нужно придумать идентификатор пользователя. Сделайте что‑то вроде “made by [YOUR REDDIT USERNAME}”. Убедитесь, что вводимый текст всегда находится между двумя «кавычками».
Вам также нужно загрузить список сабреддитов. Нажмите на значок файла в крайнем левом углу, а затем на кнопку «Загрузить»:
Теперь просто запускайте каждую ячейку, дожидаясь окончания работы последней, прежде чем запускать следующую.
Запуск последней ячейки займет некоторое время, особенно в зависимости от того, сколько сабреддитов вы включили. Во время работы она будет выглядеть так:
По окончании работы вы получите новый загружаемый CSV в крайнем левом окне:
Вы можете загрузить этот файл, чтобы получить список всех вопросов, взятых из Reddit:
Вопросы, взятые непосредственно с Reddit, представлены в оригинальной форме, которая часто включает нестандартные формулировки, сленг или дополнительные элементы вроде скобок.
4. Очистите вопросы Reddit с помощью Open AI (необязательно)
В вопросах, которые мы выгрузили, встречаются просторечные формулировки, использование сленга и различные дополнительные элементы, например скобки.
Их можно очистить с помощью Open AI. Вот тут‑то и пригодится вторая половина сценария Google Colab.
Добавьте свой API Open AI сюда, в поле, начинающееся с “import openai”.
❗️ Ещё семантику можно чистить от неявных дублей, минус‑слов, нецелевых слов, слов с нулевой частотой. Всё это подробно описано в уроке 15 модуля 4 нашего бесплатного курса по SEO.
Чистить семантику можно не только с помощью AI‑инструментов, но и с помощью Топвизора, а именно инструмента Подбор слов. Покажем, как чистить семантику от неявных дублей.
Сначала перейдите в продвинутый режим (режим таблиц):
Выберите группу запросов. Затем нажмите на лупу и введите регулярное выражение в формате /слово1.*?слово2|слово2.*?слово1/.
Например, /ипотека.*?онлайн|онлайн.*?ипотека/. Топвизор соберёт неявные дубли в выбранной группе запросов:
Как кластеризовать слова
Дальше сгруппируйте похожие ключевые слова вместе: это позволит вам перейти от анализа тысяч отдельных ключевых слов к сосредоточению на отдельных кластерах. Этот метод позволяет лучше понять их общий объём поиска и частоту запросов.
Помните, что мы говорили в начале этой статьи? Люди склонны искать один и тот же вопрос разными способами. В то время как конкуренты сосредоточены на выявлении отдельных ключевых слов со значительным объёмом, наша стратегия предполагает изучение совокупной частоты и/или объёма поиска кластеров ключевых слов.
В оригинальной статье автор использует сервис Keyword Insights, а мы всё покажем и расскажем на примере Топвизора (Поисковые запросы, «ТОП‑10») — там можно кластеризовать семантику.
Переходим в инструмент Подбор слов→ Кластеризация по ТОП‑10.
Выбираем поисковую систему и регион, степень и метод группировки, а затем нажимаем «Начать».
В результате на рабочем поле Поисковых запросов все добавленные запросы разделятся на группы (кластеры).
❗️ Кластеризацию мы подробно описали в уроке 16 модуля 4 курса бесплатного по SEO.
Как найти идеи для контента
Один и тот же вопрос многократно задаётся на Reddit, на что указывает наличие множества крупных кластеров. Первоначальный список автора из 22 000 ключевых слов был фактически сжат до 3 890 кластеров.
Наш список поскромнее: там всего 250 слов. Но у нас тоже получились кластеры:
Теперь осталось найти те, о которых вы хотите написать. Поскольку мы добавили URL нашего домена в шаге 4, мы можем легко посмотреть только те кластеры ключевых слов, по которым мы еще не ранжируемся.
Вот такой список получился у автора:
Хотя каждое ключевое слово в отдельности может иметь объём поиска всего 60–70, общий объём поиска по всей группе ключевых слов приближается к 7 000.
Если вы использовали скрипт для сбора вопросов с Reddit, описанный выше, придется сделать ещё один шаг.
Прогоните каждое слово через Поисковые запросы в Топвизоре, чтобы понять, имеют ли они достаточный объём поиска сами по себе, не будучи оптимизированными с помощью Open AI.
-
Перейдите в раздел «Поисковые запросы».
- Нажмите на значок графика на панели инструментов.
3. Отметьте нужные источники, типы соответствия и регионы.
4. Нажмите «Проверить частоту».
Как создавать и оптимизировать контент
К этому моменту у вас должно быть множество идей для контента — их подскажут ключи.
Автор предлагает дальше использовать Keyword Insights, куда можно загрузить кластеризованные ключи и получить набросок для будущего контента, но подойдёт любая нейросеть: ChatGPT, Claude AI, российские Yandex GPT или Gigachat.
Ещё контент можно создать самостоятельно, проанализировав конкурентов:
-
что у них написано в title, description и h1;
-
какая структура и объём текстов у них на сайтах;
-
какие элементы и сколько использованы в тексте: таблицы, списки, иллюстрации, видео и т. д.;
-
как входят ключевые слова: количество, в каком виде (точное/неточное, разбавлено или нет) и в каком месте — это может понадобиться для дооптимизации текста.
На основе этого можно составить ТЗ для себя или для копирайтера, который напишет текст.
❗️ Разработку ТЗ для создания контента мы подробно описали в уроке 5 модуля 6 курса «Старт в профессию».
Что в итоге
Мы рассмотрели два эффективных метода извлечения ключевых слов из Reddit, каждый из которых имеет свои преимущества.
Первый метод предполагает использование обычных SEO‑инструментов, обеспечивает быстрый и простой способ выявления ключевых слов, которые могут быть доступны конкурентам, но часто остаются без внимания.
Второй метод более сложный, заключается в автоматизации процесса сбора вопросов из соответствующих сабреддитов, что позволяет найти множество неизученных ключевых слов.
После создания списка ключевых слов нужно их очистить и кластеризовать, а потом создать контент на их основе.
Сила Reddit для исследования ключевых слов заключается в его способности обнаруживать скрытые ниши и отвечать на конкретные запросы пользователей. Опираясь на эти данные и используя инструменты создания контента на основе искусственного интеллекта, вы сможете эффективно создавать качественный контент, который найдёт отклик у аудитории.
Ещё по теме 👇
Как использовать ChatGPT для генерации и анализа ключевых слов
Частота запросов: что это такое и как влияет на продвижение сайта