Дипфейки
В первом квартале 2025 года по всему миру наблюдалась тревожная эскалация случаев мошенничества с дипфейками, чему способствовало развитие технологий искусственного интеллекта. Чаще всего имитируются знаменитости и другие публичные фигуры (41% случаев), но все чаще жертвами дипфейков становятся обычные люди. В каждом третьем случае в дипфейке объединяются видео, фото и аудио. Общий ущерб, нанесенный мошенничествами с дипфейками, в I квартале превысил $200 млн. Эти данные приводятся в докладе Q12025 Deepfake Incident Report, подготовленном компанией Resemble AI на основе 163 задокументированных инцидентов с дипфейками.
Сразу два законопроекта, направленных на борьбу с новыми технологиями, используемыми в мошеннических целях, были внесены 16 сентября в Государственную думу РФ. В Гражданский кодекс предлагается внести новую статью, которая закрепит право человека на голос и принципы его использования только с согласия гражданина. В Уголовном кодексе предложено закрепить ответственность за использование изображения или голоса гражданина, в том числе сфальсифицированных (дипфейки), при совершении преступлений.
С фейковыми изображениями Камалы Харрис что-то не так. Сервисы генеративного искусственного интеллекта (ИИ) не могут нарисовать достоверный портрет кандидата в президенты США от демократов, хотя прекрасно справляются с тем, чтобы изобразить кандидата-республиканца Дональда Трампа похожим на себя. Причина проблемы — в данных, на которых обучаются нейросети.
Соцсеть TikTok, принадлежащая китайской компании ByteDance, начала автоматически маркировать контент, созданный с помощью искусственного интеллекта на сторонних платформах. Ужесточать политики в отношении ИИ-контента уже начали YouTube (принадлежит Google) и Meta*. Что по поводу ИИ-маркировки российских платформ думает депутат Горелкин, – в материале ADPASS.
В 2023 году на платформах Google было заблокировано и снято с публикации более 5,5 млрд рекламных объявлений. Эта цифра приводится в традиционном ежегодном отчете корпорации Ads Safety Report. Одной из главных тенденций прошлого года стало использование технологий искусственного интеллекта (ИИ) – как мошенниками, так и Google в борьбе против мошенников.
Искусственный интеллект в руках мошенников стал эффективным инструментом для вымогательства денег и конфиденциальной информации. Одним из вариантов его применения преступниками стало использование дипфейк-аудио. Криминальный мир заговорил голосами рестлера Халка Хогана, актрисы Дженнифер Энистон и мега-блогера Мистера Биста. «Дипфейк-селебрити» сообщают ничего не подозревающим жертвам, что они выиграли iPhone 15. Все что нужно, чтобы получить желанный приз, – заплатить за доставку. Разумеется, онлайн, на сайте, с данными банковской карты. После того как «победитель» заполнит все формы на «лотерейном» сайте, единственное, что он получит, — пуш-уведомление о снятии крупной суммы в далеком банкомате.
Джонни Кэш — теперь популярный голос музыкальных дипфейков, они же фейкдрейки (по имени рэпера Дрейка). «Привидению» певца давали исполнять классику вроде «Дома восходящего солнца» и раньше. Но в этом году его репертуар заметно расширился: вирусным стал летний кавер «Barbie Girl» группы Aqua, а осенью залетел «Blank Space» Тейлор Свифт. Студии, исполнители, наследники и их юристы внимательно следят за выходом таких хитов и в любую минуту готовы обрушить на видеосервисы и технологические платформы волну исков. Первый уже пошел: Universal и другие крупные лейблы в октябре подали в суд на поддерживаемый Google и Amazon ИИ-стартап Anthropic за распространение текстов песен, защищенных авторским правом. YouTube тоже готовит свой ИИ-инструмент, который позволит блогерам записывать аудио с голосами известных исполнителей, и пытается договориться с правообладателями по сумме отчислений. Пока безрезультатно.
Дипфейки как жанр стартовали с порнографии — пользователь Reddit под ником DeepFakes в 2017 году научил изначально не предназначенные для подобного контента нейросети создавать неприличные ролики со Скарлетт Йоханссон и Эммой Уотсон. Согласно исследованию компании Home Security Heroes, 98% дипфейков сейчас – это порно. Благодаря расцвету ИИ-технологий за последний год их количество выросло на 464%. Наибольшей популярностью дипфейк-порно пользуется в Южной Корее, где его главными объектами стали идолы k-pop.
Неделя рекламы
Энциклопедия обмана