Старые схемы — новые масштабы: как ИИ прокачал рекламный фрод
Технологии генеративного ИИ придали мощный импульс мошенничеству с рекламным трафиком: сайты-двойники теперь можно создавать массово при помощи нейросетей одним нажатием кнопки. По данным DoubleVerify, с начала 2025 года начало резко расти число таких имитаций крупных медиа, ворующих бюджеты рекламодателей через общедоступные программатик-платформы. При этом инструментом обмана становится файл ads.txt, исходно задуманный как механизм для контроля инвентаря — копируя его, злоумышленники успешно обходят базовую верификацию рекламных платформ.
Иллюстрация Digiday
«Можно запускать 10 000 сайтов в день»
С начала 2025 года аналитическая компания и верификатор трафика DoubleVerify фиксирует резкий рост активности мошенников, использующих генеративный ИИ для создания сайтов-двойников. Эти ресурсы, получившие название slop-сайтов (англ. slop — «помои», «бурда»), функционируют как легко масштабируемые фабрики краденого контента.
Что такое мошеннический трафик
Мошеннический трафик (fraud) — это фиктивная активность, которая создается с целью манипуляции рекламными показами и их метриками, либо для накрутки пользовательских действий, таких как клики или просмотры. Он подразделяется на базовый (GIVT) — примитивные шаблонные алгоритмы, легко распознаваемые фильтрами, и сложный (SIVT) — более продвинутые схемы, реалистично имитирующие поведение пользователей. В индустрии применяется и более широкое понятие — невалидный трафик (invalid traffic, IVT), под которым понимают любую нежелательную или нечеловеческую активность, включая визиты поисковых ботов, краулеров и других автоматизированных агентов, не обязательно созданных с мошенническими намерениями.
Такие сайты внешне почти неотличимы от оригиналов. Они воспроизводят заголовки, изображения и структуру страниц, имитируя известные медиа — NBC Sports, ESPN, CBS News, BBC. Цель проста: создать иллюзию доверия для рекламных платформ и алгоритмических закупщиков, чтобы перехватывать поток рекламных бюджетов. Среди обнаруженных доменов — nbcsportz.com, espn24.co.uk, cbsnews2.com и 247bbcnews.com. DoubleVerify утверждает, что реклама на этих площадках размещалась в течение нескольких месяцев, зачастую без ведома конечных клиентов (включая крупные бренды) и через общедоступные рекламные биржи.
По словам вице-президента по продуктовому управлению DoubleVerify Гилит Сапорты, речь идет не о качественно новом типе мошенничества с трафиком, а о радикальном расширении уже известных практик. «Это те же старые схемы, только на стероидах. Генеративный ИИ позволяет за считанные часы масштабировать один клон до тысяч копий», — пояснила она в интервью изданию Digiday.
Уровень фрода в мире достиг максимума с 2020 года
По данным верификатора Integral Ad Science (IAS), в 2024 году доля мошеннического трафика в глобальных медийных кампаниях без верификации достигла 10,9% — это максимум за последние четыре года. Для сравнения, в 2021 году показатель составлял 7,4%, а на пике пандемии коронавируса в 2020 году — 11,1%. При этом верифицированные кампании показали рекордно низкий уровень мошенничества — всего 0,7% против 0,9% в предыдущие годы. IAS разделяет размещения на «оптимизированные» (с верификацией) и «неоптимизированные». Хотя последние занимают лишь 4% глобального инвентаря (против 2,2% годом ранее), именно на них приходится основной объем злоупотреблений.
Данные IAS о доле фрода в оптимизированном и неоптимизированном рекламном трафике
ИИ-инструменты, отметила вице-президент DoubleVerify, кардинально снизили порог входа в мошеннические операции. Там, где раньше требовались ручная работа и ресурсоемкая настройка, теперь достаточно ввести исходную ссылку и получить десятки автоматически сгенерированных копий. Такие клоны не только визуально повторяют интерфейс оригинального сайта, но и встраивают рекламные теги, JavaScript-элементы и конфигурационные файлы, полностью эмулируя поведение легального издателя.
«Теперь можно запускать 10 000 сайтов в день. Никаких хитростей, угроза именно в объеме», — подчеркнула Гилит Сапорта. По ее мнению, без пересмотра системной архитектуры программатик-рекламы отрасль останется уязвимой к масштабным атакам, даже если они будут устроены предельно просто.
Мошенники освоили верификацию
В последнем исследовании, опубликованном в мае, DoubleVerify раскрыла еще более тревожную тенденцию: злоумышленники копируют не только тексты и визуальный стиль авторитетных изданий, но и их рекламные идентификаторы — файлы ads.txt, служащие основой для верификации легитимных поставщиков инвентаря. Это позволяет мошенникам пройти поверхностную проверку рекламных платформ и встроиться в цепочку дистрибуции бюджетов на правах официальной площадки. На момент публикации эксперты DoubleVerify насчитали более 100 таких сайтов, часть которых продолжает успешно зарабатывать.
Мошеннический трафик в России
Единой оценки объема мошеннического трафика на российском рынке нет: Ассоциация развития интерактивной рекламы (АРИР) публикует только доли базового (GIVT) и сложного (SIVT) фрода по отдельным сегментам. Согласно ее данным, в 2024 году GIVT составлял от 2,4% до 4,4%, SIVT — от 3% до 3,9%. Верификатор Weborama зафиксировал значительно более высокую долю мошенничества в первом полугодии — 22% от медийного трафика. А зарегистрированный на Кипре Fraudscore в апреле оценил уровень фальшивого трафика в России и СНГ в 41,5%, не раскрыв ни методологию замеров, ни типы трафика, попавшего в выборку. По этим данным Россия оказалась на третьем месте в мире по уровню фрода — после Китая (44%) и стран Юго-Восточной Азии (42,2%).
Технология ads.txt, предложенная технической лабораторией Бюро интерактивной рекламы (IAB Tech Lab) еще в 2017 году, изначально рассматривалась как попытка повысить прозрачность. Она позволяет рекламодателям проверять, какие платформы официально уполномочены продавать инвентарь конкретного издателя. Но в отсутствие дополнительных слоев защиты — верификации домена, DNS-сертификации, криптографической подписи — ads.txt оказывается уязвимым к простому копированию.
Мошенники копируют ads.txt крупных изданий. Иллюстрация DoubleVerify
По оценке DoubleVerify, ошибки в работе с файлом ads.txt (избыточные цепочки перепродаж, непрозрачные посредники, устаревшие или некорректно оформленные записи) являются главным источником риска. Чтобы минимизировать потери, издателям советуют ограничивать список авторизованных партнеров только компаниями, с которыми заключен прямой контракт. Важно регулярно проверять актуальность и синтаксис ads.txt, использовать его в связке с инструментом Sellers.json, а также контролировать внешние скрипты и домены, которые взаимодействуют с сайтом. Подозрительные подключения следует блокировать. При этом даже корректный ads.txt не обеспечивает полной защиты. Поэтому верификатор рекомендует использовать независимые инструменты оценки трафика и не полагаться на инфраструктурные решения как на единственную линию обороны.
Участникам программатик-экосистемы — от DSP и SSP (платформы со стороны спроса и предложения) до аукционных площадок — DoubleVerify советует выстраивать верификацию инвентаря до момента попадания его в торги. Речь идет об обязательной валидации ads.txt, выявлении подозрительных или дублирующих файлов и исключении доменов с нарушенной репутацией. Приоритет стоит отдавать прямым поставщикам: каждый дополнительный посредник увеличивает риски, особенно в непрозрачных цепочках. Дополнительную проверку легитимности обеспечивают Sellers.json и SupplyChain Object — эти инструменты позволяют верифицировать, что инвентарь прошёл по задекларированной цепочке. Платформам важно не только устранять нарушителей, но и делиться данными о фроде с партнерами, а также регулярно проводить аудит источников закупки.
Ситуация тревожит и отраслевые объединения. Генеральный директор News/Media Alliance Даниэль Коффи и управляющий директор британской Ассоциации онлайн-издателей Ричард Ривз заявили Digiday о «серьезной обеспокоенности» последними находками DoubleVerify. Оба подчеркнули важность координации с IAB Tech Lab и другими структурами. В самой IAB Tech Lab отказались предоставить комментарии для публикации.
Что предлагают издатели
По мнению бывшего директора по монетизации Guardian News and Media Хамиша Никлина, фундамент проблемы — не в использовании мошенниками ИИ, а в уязвимой архитектуре самой рекламной экосистемы. «Давайте говорить прямо: это не проблема ИИ, это проблема технологий цифровой рекламы. Сайты по-прежнему слишком легко подделать. Если рекламодатели хотят гнаться за самыми дешевыми показами на открытом рынке, пусть принимают риски, которые с этим связаны», — сказал он в интервью Digiday.
В том же духе высказался директор по продажам и рекламным технологиям датского таблоида Ekstra Bladet Томас Лю Лютцен. Он в беседе с изданием назвал сложившуюся ситуацию «чрезвычайно тревожной». По мнению медиаменеджера, единственным устойчивым решением остаются «белые списки», в которые внесены проверенные и одобренные издатели.
Руководитель направления рекламы и перформанс-медиа в канадском новостном издании Globe and Mail Притеш Джумани считает наиболее правильной стратегией фокус на прямых сделках — от программатик-инструментов с гарантированным результатом до закрытых аукционов. «Открытые торги, где господствуют дутый инвентарь и slop-сайты, больше не обеспечивают даже минимального уровня прозрачности», — заявил он.
Медиаконсультант и экс-директор по программатику медиахолдинга News UK Алессандро де Занке выступил с более радикальной позицией. По его мнению, индустрия десятилетиями игнорировала необходимость фундаментального пересмотра принципов работы. «У нас очевидная проблема: цифровая раковина переполнена. Но вместо того чтобы закрыть кран, мы спорим, чья швабра лучше впитывает», — заявил он.
Реальное решение, по мнению Алессандро де Занке, — это создание системы цифровой идентификации, при которой все участники рекламных сделок, включая SSP, DSP, агентства и издателей, проходят обязательную юридическую верификацию. Только после этого можно говорить о стандартизации и очищении экосистемы от токсичных игроков. «И нам не нужен ИИ для этого. Нам нужна политическая воля и давление со стороны ключевых игроков рынка», — подчеркнул он.