Какой нейро-контент хорошо ранжируется в поисковых системах
Использование нейронки прилично упрощает создание контента, но не всегда такой материал способен привлекать трафик. Как поисковые системы Google и Яндекс вообще относятся к AI-контенту, по каким принципам его ранжируют и что нужно сделать чтобы улучшить позиции страниц в выдаче? Об этом сегодня и поговорим.
После появления чат-ботов типа ChatGPT и Claude, компании, как и многие агенства— запустили собственную контент-ферму. Команды подбирали ключевые запросы, формировали корректные промпты, массово генерировали ИИ-статьи для блога и создаваемые по шаблонам лендинги, практически не выполняя ручную вычитку.
Материалы были с низкой информативностью: много воды, слабая конкретика, часто переспам.
Несмотря на это по формальным SEO-показателям тексты выглядели корректно: большой объем, хорошая структура, подзаголовков, прямые и разбавленные вхождения ключей. Даже такая стратегия действительно приносила результаты.
Ситуация изменилась в марте 2024 года после выхода обновления Google Helpful Content. Алгоритм начал жестко оценивать качество и пользу материалов, и в итоге трафик сайта снизился почти вдвое.
Почему произошёл обвал трафика
На что компании ссылались, причины падения позиций:
Google начал жестко «штрафовать» сайты за использование AI-контента.
Быстрые публикации, было опубликовано много страниц с низкокачественными материалами.
пользователи не находили полезную информацию и сталкивались с большим количеством «воды».
переспам, тексты содержали избыточное количество ключевых слов.
Также сайты попали под фильтр из-за малополезного контента.
Как создавался этот контент
Для генерации использовали разные ИИ модели, например Claude AI.
Загружали в нейросеть качественные статьи конкурентов. На их основе просила сформировать структуру будущего материала — outline. Ставила задачу написать текст по каждому пункту плана.
Минимально вычитывала полученные фрагменты и объединяла их в единую статью.
Процесс выглядел логичным и визуально грамотным:
была собрана и кластеризована семантика ядра. — кластеры вручную распределили по страницам;
для каждого блока подготовили подробную структуру с ключами, LSI;
ИИ давали задачу писать по 2–4 смысловых блока за раз, чтобы упростить генерацию.
Производимые материалы соответствовали параметрам топовых статей: длина, структура, абзацы. Вхождений ключевых слов было больше нормы, но в рамках нормы — любые текстовые проверки показывали «зелёные» показатели.
В общем к СЕО и контенту претензий не было. Но главный недостаток — отсутствие реальной пользы для человека. Материалы создавались прежде всего для поисковых систем.
Почему это критично в текущих алгоритмах Google
Google ориентируется в первую очередь на пользовательский интент — на то, какое намерение стоит за поисковым запросом. Человек приходит на страницу с чёткой задачей: получить документ, найти ответ, увидеть таблицу, инструкцию, видео и т. д. Именно интент определяет, какая информация должна быть на странице, чтобы она ранжировалась. Если текст не решает проблему пользователя, он автоматически становится не полезным — вне зависимости от того, создала ли его нейросеть или эксперт с ученой степенью.
Также если сайт открывается в разных профилях или агентство тестирует выдачу через разные браузеры, лучше использовать MoreLogin. Чем точнее сайт соответствует ожиданиям аудитории в разных условиях, тем выше вероятность стабильного ранжирования.
Как вернуть трафик
Чтобы вернуть утраченный трафик, команды начали с переработки коммерческих страниц. Они были созданы с помощью ИИ и не проверялись из-за чего важные для пользователя сведения — стоимость услуг, примеры работ, ключевые преимущества — оказались спрятаны глубоко на странице, проще говоря клиент ничего дельного не видил. Контент переписали, убрали излишнюю «воду», усилили тематической лексикой, чтобы поисковая система точнее определяла релевантность запросам. Важные блоки перекинули к началу страницы, чтобы пользователь сразу видел ключевую информацию.
Повысили качество уже опубликованных статей. После появления более продвинутой модели Claude 3 Opus часть материалов сгенерировали заново, но на этот раз подключили живого редактора, который тщательно вычитывал тексты и приводил их в соответствие с человеческими ожиданиями. На страницах добавили контент, который интент посетителей, а не просто заполнял структуру.
Дополнительно провели очистку блога и удалили материалы которые больше не приносили никакой ценности. В итоге уже через две недели сайты с такими изменениями вышели из-под фильтра Google Helpful Content, а поисковое ранжирование и трафик полностью восстановились.
Итог
Если страница не отвечает на запрос, она не будет считаться ценной, независимо от формального качества. Важно учитывать, что Google оценивает не только конкретную страницу, но и сайт в целом. Если на домене мусор большого объема слабых материалов, отдельные качественные статьи будут проигрывать более сильным конкурентам. Также не рекомендуется создавать страницы под запросы, которые пользователь решает за несколько секунд: быстрее визиты негативно влияют на поведенческие факторы и ухудшают позиции сайта в выдаче.