On-Page SEO с Виктором Каргиным

В гостях у Топвизор-Подкаста Виктор Каргин, создатель канала SEO сhat. Говорим про On-Page SEO – внутреннюю оптимизацию.

On-Page SEO с Виктором Каргиным

В гостях у Топвизор-Подкаста Виктор Каргин, создатель канала SEO сhat – самого большого SEO-комьюнити в телеграме. Говорим про On-Page SEO – внутреннюю оптимизацию.

Это восьмой выпуск второго сезона подкастов. Новые выпуски выходят на всех доступных площадках:

Soundcloud
ВКонтакте
Яндекс.Музыка
Apple Podcasts
Google Подкасты

Подписывайтесь, чтобы получить уведомление раньше всех.

Если вы работаете в SEO или PPC, приходите в Топвизор-Подкаст, чтобы рассказать свой кейс, поделиться мнением или просто поболтать с коллегами.

Стать гостем

Что такое On-Page SEO?

Этот термин обозначает работу со всем контентом, который находится на странице сайта: текстом, картинками, HTML-разметкой.

Что входит в оптимизацию контента?

Это зависит от того, о каком этапе создания сайта мы говорим. Если это сайт с нуля, то в первую очередь нужно собрать семантику, подобрать запросы, по которым необходимо продвигаться, разложить их по группам и, исходя из этого, подготовить контент для сайта.

Если мы говорим о сайте клиента (сайт уже существует), то здесь немного по-другому. Семантика тоже потребуется, но контент сразу создавать нет необходимости. Возможно, уже есть готовые страницы под это. Надо определить, какие запросы на эти страницы можно приземлить.

С чего ты обычно начинаешь создание контента?

Со сбора семантического ядра. Семантическое ядро – это целая наука. Есть ребята, которые на этом специализируются, но есть и специальные сервисы. Топвизор, например. В нём можно составить семантическое ядро.

Самый простой подход – это сервис Wordstat Яндекса. Хотя он и предназначен для Яндекс.Директа, чтобы там подбирать запросы для рекламы, но SEO-специалисты его тоже используют. Это самая большая база ключевых слов, которая сейчас существует.

Второй способ – это поисковые подсказки. Если сайт нужно создать с нуля, то используйте Wordstat и подсказки вместе. Сначала начинаешь собирать ключевые слова по своей тематике с одного слова, затем собираешь весь Wordstat по этому слову, потом всё, что ты собрал, каждую ключевую фразу, ещё раз прогоняешь через сервис, уходишь в глубину запроса. А потом смотришь и подсказки. Можно собрать очень много, но это ещё придётся фильтровать.

Есть другой способ, если ты знаешь несколько сайтов по своей тематике. Например, я в последнее время использую Анализ конкурентов от Топвизор. Беру несколько сайтов конкурентов и смотрю, по каким запросам они видны в том или ином регионе. Исходя из этого беру эти запросы, очищаю их и уже потом расширяю с помощью Wordstat или подсказок. Я вообще активный пользователь Топвизора с 2013 года.

Wordstat и подсказки я собираю тоже через Топвизор. Мне проще прогнать через сервис, чем заморачиваться с прокси-серверами.

У меня не такие объёмы, я работаю как бутиковое агентство для нескольких клиентов, поэтому нет необходимости этим заниматься постоянно. Я не держу кучу прокси.

Wordstat и подсказки можно собирать и через Key Collector. Но чтобы через него это делать, нужно покупать дополнительные прокси-серверы, иначе IP-адрес и аккаунты могут забанить.

Поэтому в основном для сбора семантики из Wordstat и подсказок я использую сервис Топвизор.

Что делать дальше?

Надо проверить позиции и посмотреть, есть ли у тебя позиции по этим запросам на этих страницах. Это если мы говорим о готовом сайте.

Если про нулевой сайт, то задача такая: есть группа запросов, под которые необходимо составить контент. Ты, соответственно, составляешь ТЗ копирайтеру, говоришь, что тебе нужен контент с такими-то ключевыми словами. По-хорошему, в ТЗ нужно указать заголовки. Если сразу их проработать и указать группы запросов, то с большей вероятностью копирайтер напишет хороший текст.

Есть такой термин – интент запроса. Это то, что пользователь держит у себя в голове и что с помощью этого запроса он хочет решить. Грубо говоря, если пользователь пишет «наполеон рецепт», то он не хочет знать про Наполеона Бонапарта.

Соответственно, смотришь, удовлетворяет ли твоя страница интент пользователя. Если нет – делаешь контент на странице под это. Если нет страницы – создаёшь её по рецепту, что я дал выше: составить ТЗ копирайтеру, расписать вхождения, расписать примерные заголовки, можно добавить тематические слова, которые иногда называют LSI, но это неправильно.

Есть сервисы, которые подбирают тематические слова, разные текстовые анализаторы.

Когда я смотрю, какие ключевые слова нужны и в каких вхождениях, то использую текстовый анализатор OverLead. Он показывает триграммы, биграммы, тематические слова, вхождения в разные блоки текста, в title, в списки.

Биграммы и триграммы – это языковые конструкции из двух или трёх слов соответственно, которые идут последовательно друг за другом. Проанализировав их, можно сделать вывод, какую семантику добавить в текст, чтобы полностью закрыть интент пользователя.

Можно воспользоваться им: взять группу ключевых слов, закинуть в текстовый анализатор и посмотреть, как конкуренты используют ключевые слова и какие требования к тесту есть (средние по ТОПу).

Допустим, у нас собрана семантика и мы разгруппировали её по страницам. Из этой семантики получились тексты, которые отвечают на запросы пользователей. Что ещё добавить на страницы? Изображения? Какие должны быть изображения?

Изображения должны быть по тематике. Исходим из того, что есть в ТОПе. Мы идём и смотрим, какие примерно есть изображения. Если у конкурентов изображения есть, то они нужны.

Надо подумать о технической оптимизации, чтобы пользователю было удобно эти изображения смотреть. Это вопрос уже больше в техническую часть.

Обязательно нужно прописать атрибут alt. По стандарту так – у каждого изображения должен быть альтернативный текст, описывающий то, что происходит на нём.

Альтернативный текст – это атрибут alt у любого тега img. Он используется браузерами в том случае, если не удалось загрузить изображение по какой-то причине. Тогда вместо картинки выдается альтернативный текст.

Ещё его используют разные скринридеры – это программы, которые помогают слабовидящим людям пользоваться интернетом. Они переводят всё, что есть на экране, в текст, а потом воспроизводят голосом.

Нам надо составлять описания, исходя из вхождения ключевых слов.

На основе alt-текста картинка может попасть в поиск по картинкам у Google или Яндекса?

Да, он используется при ранжировании картинок в том числе.

При ранжировании картинок используется ещё текст около картинки – caption. Это описание. Если его неправильно сделать, то может случиться следующее: ищешь одного человека по имени, а поиск показывает другого. Так бывает, когда подпись у картинки размещена сверху. Сначала подписан человек, снизу фотография, а под ней подпись следующей фотографии. Недавно такой пример встретил: искал одного спикера, а показывалась фотка другого.

Какой формат изображений стоит использовать?

По картинкам я могу посоветовать хороший доклад, который читали на конференции Яндекса. Тут про форматы картинок и чем они отличаются. Это техническая информация. Я настаиваю, что его нужно посмотреть, потому что нужно знать историческую справку по некоторым вещам.

Формат зависит от того, какой тип изображения используется. Если мы говорим про графики (инфографику), то лучше использовать PNG или SVG.

SVG – это векторные изображения, PNG – растровые, но больше заточенные под ровные заливки. PNG человеку сделать проще. SVG-формат любят программисты и верстальщики, потому что он векторный и похож на HTML по описанию.

Для иллюстраций (не фотографий) желательно использовать в данный момент PNG, как более универсальный формат. PNG отлично сжимается, есть несколько сервисов которые позволяют сделать это бесплатно.

Для фотографий лучше использовать JPEG или новый формат WEBP, который сейчас очень популярен. Например, Google рекомендует использовать его для всех форматов. Это то же самое, что JPEG.

JPEG – формат, изначально придуманный для Интернета и для фотографий. Фотографии в PNG лучше не выкладывать – они начинают занимать много места и это ухудшает скорость загрузки страницы.

До какого размера стоит сжимать изображения?

До приемлемого. Это примерно десятки килобайт, но нужно смотреть на качество.

Есть интересный сервис Squoosh. Он позволяет прикинуть, как можно сжать картинки, и сравнить результат, показывает до и после.

WEBP – современный формат. Он поддерживается всеми браузерами, кроме Safari. Safari поддерживает его частично, в зависимости от версии macOS и версии Safari.

Это происходит потому, что Google и Apple соревнуются. Google продвигает свой формат WEBP, а Apple продвигает свой формат JPEG 2000.

Об этом как раз говорится в той лекции Яндекса, которую я упоминал. Там очень хорошо рассказывается история и объясняется, чем технически WEBP отличается от JPEG 2000, и почему Apple его не поддерживает.

WEBP – более продвинутая версия JPEG, если совсем упростить. Очень хорошо подходит для фотографий, но, по-моему, уже хорошо подходит и для замены PNG.

Окей, мы сделали текст, у нас есть контент, который нравится людям и поисковым системам. Дальше что? Нужно разбить этот текст на теги H1? Или сейчас такой необходимости нет? Я слышал, что Джон Мюллер из Google упоминал, что можно ставить несколько тегов H1, потому что система сама понимает, что находится на странице. Что ты думаешь про это?

Когда ты пишешь текст или его пишет копирайтер, желательно чтобы он сразу был разбит на абзацы, заголовки, подзаголовки.

Для этого, как я говорил в начале, желательно накидать заголовки копирайтеру, чтобы он мог их использовать. Соответственно, в тексте желательно соблюдать иерархию заголовков. Чтобы был H1, H2, он расширялся в H3 и так далее.

Основное название – заголовок, более точное – подзаголовок. Нужно, чтобы эта иерархия не нарушалась.

Эта тема никуда не делась, иерархия текста так и осталась. Но технически в HTML-тегах допускается использование нескольких H1 на странице. Если я ничего не путаю, то допускается один H1 на тег section.

Почему вообще было требование один H1 на одну страницу? Раньше теги отвечали за структуризацию текста с точки зрения стандартов HTML, но это было до HTML 4.01.

В HTML 5 отвязали привязку тегов к структуре. Структуру теперь можно делать с помощью параметров и семантической разметки: секции, header, footer, main. Они это отстранили от заголовков и сейчас не обязательно использовать H1 и H2. Но, с точки зрения SEO, это надо делать.

Мюллер, скорее всего, говорил о том, что в HTML-тегах допустимо использовать H1 несколько раз на странице.

Мы разобрались с текстовым контентом. Но люди создают не только блоги. Возьмём интернет-магазины с миллионами карточек товаров. Я слышал, что у большинства из них проблемы, как этот контент уникализировать. Как сделать одну карточку отличной от другой карточки? По сути это одинаковые карточки товара, меняется только артикул. Как сделать так, чтобы ПС помогли пользователям найти нужную?

Интернет-магазины – это особый тип контента. С карточками товаров есть такая проблема: они могут не индексироваться, если на них очень схожий контент. К этому надо подходить очень аккуратно.

С одной стороны, дублирование контента на карточках товара, например, описание, которое совпадает у многих товаров, технически не страшно. С другой стороны, сильно уникализировать описание, как это делается на контент-сайтах, тоже не стоит.

Для интернет-магазинов допустимо генерировать описание по какой-то формуле для очень больших групп товаров. Этим занимаются крупные интернет-магазины. Например, DNS – кладезь подобных решений. У них очень много сгенерированных описаний на основе характеристик товаров.

Я рекомендую, чтобы генерация была менее заметна, для некоторых групп товаров использовать несколько шаблонов. Дать копирайтеру задачу написать несколько текстов для телефонов, допустим, штук 5, и распределить их по моделям (лучше, чтобы они чуть-чуть отличались).

Ещё вариант – для некоторых моделей написать самому. Например, для айфонов, самсунгов и других топовых моделей.

Второй момент по поводу оптимизации карточек товаров – это отзывы. Часто при кластеризации отзывы попадают на отдельную страницу. Есть прям класс запросов по некоторым товарам, которые про отзывы. Они выносятся на отдельную страницу, поэтому их нельзя использовать на карточках товаров. Но можно поставить парочку уникальных отзывов на конкретный товар, а все остальные оставить на отдельной странице. За счёт отзывов можно тоже как-то уникализировать каждую карточку.

Следующий вопрос – не все магазины могут собрать столько отзывов. Тут по разному можно выходить из ситуации: находить эти отзывы на маркете, пытаться получить через отзовики. Надо работать в этом направлении.

Есть ещё интересный момент про карточки товаров. Недавно в SEO-чате спрашивали, если есть карточки товара с разными модификациями, например, ноутбук одной модели, но там разные процессоры, цвета, крышки и т. д.

С технической точки зрения, маркетинг требует, чтобы для каждой модификации ноутбука была своя карточка товара. Но, с точки зрения SEO, это получается почти полный дубликат, потому что разница будет в нескольких характеристиках, а описание одинаковое.

Например, есть два mp3-плеера разных цветов: один розовый, другой синий. В этом случае надо смотреть на поисковой спрос. Если нет спроса на отдельную модификацию, то эти карточки товара надо объединять на одной странице. А если есть спрос на эти карточки товара, то разделять. Например, айфоны. Айфон 256 ГБ разных цветов надо разносить на разные страницы, но объединять с помощью JS. Чтобы они переключались бесшовно для пользователя, но для поисковой системы считались разными страницами.

Они не будут считаться дублями?

Дубликатами поисковик их не сочтёт, но и у Яндекса, и у Google есть такая штука, как малополезный контент. Если страницы очень похожи и не сильно отличаются, то системы могут выкинуть их из индекса.

Если какой-то товар отличается только цветом, то лучше сделать его на одной странице, а цвет – опцией. Но если на него есть поисковый спрос, как, например, с айфонами, то надо делать обязательно разные страницы и их уникализировать, как я рассказывал про карточки товара.

Мы собрали семантику, написали контент, сделали правильную структуру, изображения и опубликовали. Как долго ждать индексацию и как проверять результаты? Отвечает ли эта страница на запросы пользователя или, возможно, отвечает на совсем другие запросы? Как это проверить и исправить?

Дальше начинается уже поле экспериментов. Сколько ждать индексации? Если всё хорошо, то страницы индексируются достаточно быстро, буквально 2-3 дня.

И в Яндекс, и в Google есть возможность проверить дату индексации либо в Search Console, либо в Вебмастере.

В Search Console есть отчёт об индексировании в разделе «Покрытие», где можно посмотреть как Google видит эту страницу. Можно проверить URL, и Google покажет дату последнего захода бота.

В Вебмастере у каждого сайта есть раздел индексации. Там нужно нажать «проверить по URL» и посмотреть дату последнего захода и дату версии страницы в индексе. Вот эта версия страницы в индексе – это дата индексации страницы.

Можно ещё проверить массово по сайту и выгрузить все страницы из индекса. Там будет дата последнего доступа – это тоже дата версии страницы в индексе.

Как проверить, соответствует ли страница запросам?

Проверить позиции и посмотреть, какая релевантность страницы в выдаче.

Если она не совпадает с релевантной страницей, то нужно искать причины, но это уже немного другая работа, хотя это тоже относится к On-Page оптимизации. Нужно разобраться, почему не та страница релевантна.

Такое бывает у интернет-магазинов, когда вместо категорий или карточек товаров выходит информационная статья. Зачастую это означает, что вы перестарались, и страница считается алгоритмом менее релевантной или заспамленной.

Есть такая технология, которая называется A/B-тесты. Я слышал крутые исследования со стороны зарубежных медиа, которые так тестировали заголовки. На основе этих тестирований выявляли более кликабельные заголовки. Стоит ли это делать для контента при внутренней SEO-оптимизации?

В SEO я считаю, что невозможен абсолютно честный A/B-тест. Невозможно держать две версии страницы в выдаче, просто потому, что робот всегда проиндексирует и покажет последнюю версию страницы.

Это будет последовательный A/B-тест: сначала выкатил одну версию страницы, затем другую. Получается, если ты занимаешься оптимизацией, то ты проводишь вечный тест. Сначала выкатил одну версию и посмотрел позиции. Если не выросли, значит, надо попробовать что-то изменить. Выкатываешь следующую версию и так далее.

В бурже я слышал другую версию с тестом. Была компания, которая предоставляла услуги защиты сайта от DDoS. Она прогоняла весь трафик сайта через свои сервера. Соответственно, компания могла на ходу менять HTML. За счёт того, что у них было много сайтов на поддержке и защите, они могли себе позволить проводить эксперименты с разными типами сайтов и страниц: менять title, править контент и т. д. Что-то у них получалось. Но это было лет 5 назад и компанию я уже не помню.

Когда у тебя есть большая база страниц и ты по-всякому можешь её менять на лету, то можно проводить A/B-тест. Но это доступно далеко не всем, почти никому не доступно. Поэтому A/B-тест в SEO практически не реален.

Получается, только последовательно?

Да, во-первых, последовательно. Во-вторых, есть такой момент, что когда на одной странице очень часто меняешь title, то у тебя какое-то время может быть эффект от этого, а потом он просто пропадет. Что бы ты ни делал, как будто бы заморозились изменения. Ни Яндекс, ни Google их не учитывают.

Ты можешь ещё что-нибудь добавить? Самое основное мы, кажется, охватили.

Можно добавить ещё про коммерческие факторы. Это тоже относится к On-Page оптимизации, потому что тоже находится на странице. Дима Шахов рассказывает про так называемую матрицу коммерческих факторов.

Не помню, в какой формулировке он это рассказывает, но смысл в том, что тебе нужно проанализировать своих конкурентов и посмотреть, какие фичи они используют: телефон 8-800, калькулятор, форму заявки на главной странице.

Ты анализируешь конкурентов и составляешь таблицу: в строчку конкуренты и все собранные фичи. Смотришь, какие важные. Это очень полезно, но применимо не для всех типов страниц. Надо смотреть и принимать решения, исходя из того, что происходит в ТОПе.

Если у тебя в ТОПе все сайты имеют номер 8-800 и ещё калькулятор расчёта стоимости, то тебе без этого не продвинуться в ТОП-10 по определённому запросу.

Желательно в любом случае смотреть на конкурентов, на их основные фишки?

Да. Сейчас ещё такая штука, что машинное обучение работает по блокам. Недавно вышла статья про то, чем отличается машинное обучение от аналитики. Если почитать оригинал, то Билл Славски очень интересно рассказывает по поводу того, чем отличается этап машинного обучения от аналитической формулы.

В эпоху машинного обучения нужно ориентироваться не только на содержание страницы, но и на блоки контента, которые есть на странице. Это будет помогать в продвижении.

Блоки контента – это ты имеешь в виду что? Если мы возьмём карточку товара интернет-магазина, то необходимо, чтобы помимо самого описания и отзывов были какие-то похожие товары?

Да, да. Недавно промелькнул такой кейс с SEO-курсами. Суть в том, что человек сделал 5 похожих сайтов по блокам. Сначала было описание курса, потом программа курса, потом сравнение по ценам с другими курсами, преподаватели и отзывы. Всё это было блоками. Это продвигает тебя сразу. Без полного набора этих блоков ты, скорее всего, не попадёшь в ТОП. Содержание блоков как оказалось не так важно. На это тоже надо обращать внимание.

Кроме того, это даёт вхождения, потому что блоки по определённому называются. Например, отзывы, калькулятор, форма обратной связи, телефон 8-800. Это учитывается при машинном обучении и используется как некоторая мета-информация. Не обязательно, чтобы там был какой-то уникальный текст.

Есть примеры, как применить это для блога, колонки новостей?

Для блога это, скорее всего, не так применимо. Возвращаемся к тому, что у нас эпоха машинного обучения. Яндекс и Google могут хоть под каждый запрос делать отдельную формулу.

Точнее, они делают это по кластеру запросов, чтобы экономить ресурсы. Но фактически каждый запрос ранжируется по-своему, и надо смотреть, что с ним происходит.

Для блогов всё намного проще. Это информационные запросы. На этапе написания контента нужно разбить текст на составляющие части по заголовкам. Мы смогли поисковым роботам дать понимание на каких страницах сайта находится релевантный для пользователя контент. Дальше необходимо этот контент выводить в ТОП, а это уже техническая оптимизация.

Про техническую оптимизацию мы поговорим в следующих подкастах. Следите за обновлениями:)