16.02.2024, 16:47

На борьбу с дипфейками брошены ИИ, полиция и Минцифры

С дипфейками будут бороться лучшие силы. В США с цифровыми двойниками знаменитостей, созданных искусственным интеллектом, будут бороться их же оружием — ИИ. Противоборствовать звонкам липовых начальников, которые атакуют россиян, будут Минцифры и МВД. Лучшим методом борьбы на Западе и в России признают «водяные знаки», но развешивать их предлагают по-разному.

Свифтдрейкфейки

Власти США и ЕС долго сквозь пальцы смотрели на стремительное распространение дипфейков в соцсетях. Но все изменилось только сейчас.

Откровенные фейковые фото и видео с любимицей публики, Тейлор Свифт, заставили звезду на время уйти с X (экс-Twitter), а владелец соцсети Илон Маск распорядился заблокировать все поисковые запросы с именем певицы.

Через неделю с небольшим видео с голым человеком, похожим на Дрейка, стало самым вирусным за всю историю Х. И хотя знаменитый рэпер хранил молчание, за него высказался Белый дом: пресс-секретарь Карин Жан-Пьер заявила, что конгресс должен ограничить распространение такого контента, который способен нанести эмоциональный и репутационный вред.

Хороший ИИ против плохого

Вчера американский стартап Clarity привлек $16 млн инвестиций в ходе первого посевного инвестиционного раунда. Clarity был основан в 2022 году специалистами по кибербезопасности для разработки технологий по обнаружению медиафайлов, которые создает искусственный интеллект. Сканер Clarity тоже использует возможности ИИ — сразу несколько платформ, которые обучаются выявлять закономерности в методах создания видео, изображений и аудио, присущие нейросетям. Clarity также предлагает владельцам прошедшего сканирования законного контента специальные водяные «знаки качества» для видео и изображений.

При этом представители компании, штат которой составляет 13 человек, предупреждают, что точность в области обнаружения дипфейков — движущаяся мишень. Даже при наличии лучших знаний и технологий, в этой игре невозможно победить, учитывая скорость, с которой улучшаются GenAI и другие приложения для создания фейковых мультимедиа.

Связисты против двойников Байдена

На прошлой неделе Федеральная комиссии по связи США (FCC) запретила использовать в телефонных звонках голоса, смоделированные искусственным интеллектом. Теперь к ответственности можно будет привлечь не только за ущерб, нанесенный в ходе такого звонка, но и за сам его факт.

Поводом к принятию закона стали звонки, которые получили жители штата Нью-Гэмпшир в январе. Им звонил робот и голосом, похожим на президента Джо Байдена призывал не ходить на праймериз.

По результатам опроса Axios представителей компаний-разработчиков технологий искусственного интеллекта, проведенного в 2023 году, 62% респондентов заявили, что дезинформация станет самой большой проблемой для поддержания подлинности и достоверности новостей в эпоху контента, создаваемого искусственным интеллектом.

Звонки от фейковых начальников развязали войну с искусственным интеллектом

В России одной из темных порождений новых технологий стали телефонные звонки от «липового» начальства. Схема называется fake boss. Жертве приходит сообщение в мессенджер (Telegram или WhatsApp) о том, что ей будет звонить начальник или представитель государственного ведомства. Затем, прикрываясь разными форс-мажорными обстоятельствами, мошенники уговаривали человека вывести деньги на «безопасный счет». При этом злоумышленники создавали аккаунты с реальными фото руководителей — ИИ подтягивал их из соцсетей.

В начале февраля было проведено заседание правительственной комиссии по профилактике правонарушений под председательством министра внутренних дел Владимира Колокольцева. Минцифры, МВД и Роскомнадзору поручено проработать «вопросы правового регулирования цифровой технологии подмены личности в целях недопущения ее использования в противоправных целях», — сообщают «Ведомости», со ссылкой на источник, знакомый с повесткой встречи. К 19 марта Минцифры должно проработать вопрос выявления дипфейков.

Ранее председатель комитета Госдумы по информационной политике Александр Хинштейн на заседании Госдумы заявлял, что в России может быть введена ответственность за несанкционированное использование чужого голоса и изображения.

Собеседники «Ведомостей» так же, как и американские специалисты из Clarity считают, что единственной защитой против дипфейков могут стать «водяные знаки». Но маркировку надо устанавливать самим ИИ- платформам при генерации контента.

Сейчас российские законы запрещают использовать изображения и видеозаписи, но не голос конкретного человека без его согласия. В отношении мошенничества, в том числе связанного с присвоением чьей-то личности, действует статья 159 УК РФ, которая предусматривает различные виды ответственности (штрафы и лишение свободы) в зависимости от конкретных обстоятельств.

Авторы:
Алина Губина
Редакция ADPASS
Главное про маркетинг и рекламу
в Telegram

Вам понравится

Редакция ADPASS
23.10.2024
Редакция ADPASS
21.10.2024
Редакция ADPASS
10.10.2024
Редакция ADPASS
10.10.2024