17.09.2024, 11:57

Дипфейкам подыскали статьи в УК. Как в России и мире борются с ИИ-фальсификациями

Сразу два законопроекта, направленных на борьбу с новыми технологиями, используемыми в мошеннических целях, были внесены 16 сентября в Государственную думу РФ. В Гражданский кодекс предлагается внести новую статью, которая закрепит право человека на голос и принципы его использования только с согласия гражданина. В Уголовном кодексе предложено закрепить ответственность за использование изображения или голоса гражданина, в том числе сфальсифицированных (дипфейки), при совершении преступлений.

Право на голос

Законопроект о внесении изменений в Гражданский кодекс разработан Альянсом в сфере ИИ и Национальной федерацией музыкальной индустрии. В Госдуму его внесли сенаторы Андрей Клишас, Артем Шейкин, Наталья Кувшинова и Руслан Смашнев, а также депутат Госдумы Даниил Бессарабов (все — члены партии «Единая Россия»).

В пояснительной записке к законопроекту отмечается активное развитие технологий синтеза речи, при недобросовестном использовании которых возникают неблагоприятные правовые последствия для граждан. «В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и “производные” записи могут быть использованы способом, неприемлемым для человека — обладателя голоса, поскольку получение его согласия прямо не предусмотрено законодательством», — говорится в записке. В ней также отмечается, что «использование голоса может являться источником дохода человека и представлять коммерческую ценность, например, для актеров дубляжа, певцов, театральных актеров и т. д.»

Авторы законопроекта предлагают дополнить часть первую Гражданского кодекса Российской Федерации новой статьей 152.3, устанавливающей охрану голоса как объекта личных неимущественных прав гражданина по аналогии с изображением.гражданина, в том числе в случаях имитации голоса или путем синтеза речи в режиме реального времени.

Законодательная защита голоса и изображений

С законопроектом об охране голоса логически связан другой законопроект — о внесении поправок в Уголовный кодекс РФ, закрепляющих ответственность за использование изображения или голоса гражданина, в том числе сфальсифицированных (дипфейки), при совершении преступлений. Авторы этого законопроекта — депутат Государственной Думы Ярослав Нилов (ЛДПР) и сенатор Алексей Пушков («Единая Россия»).

В пояснительной записке к законопроекту отмечается: «развитие компьютерных технологий привело к расширению возможностей по созданию видео- и аудиоматериалов на основе образцов изображений и голоса гражданина, искусственно воссоздающих несуществующие события… использование нейросетей и искусственного интеллекта (технологии “дипфейк”, “цифровые маски” и т.д.), позволяют создавать подделки, отличить которые от реальности неспециалисту практически невозможно».

Авторы законодательной инициативы предлагают ввести в ряд статей Уголовного кодекса (клевета, кража, мошенничество, мошенничество в сфере компьютерной информации, вымогательство, причинение имущественного ущерба путем обмана или злоупотребления доверием) дополнительный квалифицирующий признак — «совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и (или) биометрических данных гражданина».

Дипфейки — общемировая законодательная проблема

Внесенный на рассмотрение в Госдуму законопроект об охране голоса в первую очередь связан с охраной прав людей, для которых голос — рабочий инструмент. Представители такой профессии в США уже ведут борьбу за свои права, опасаясь лишиться работы из-за развития нейросетей с генерацией синтетического голоса. В начале сентября в США частично завершилась длившаяся более месяца забастовка актеров озвучивания и захвата движений, состоящих в Гильдии киноактеров США — Американской федерации теле- и радиоартистов (SAG-AFTRA). Профсоюз подписал соглашение с разработчиками 80 видеоигр, которое защищает права актеров. При этом забастовка против ведущих компаний — Electronic Arts Productions и игровых подразделений Disney and Warner Bros. — продолжается, так как они не стали подписывать соглашение.

Самый известный случай «кражи голоса» (во всяком случае так утверждает жертва) — история актрисы Скарлетт Йоханссон. В мае этого года она обвинила компанию OpenAI в том, что созданный компанией чат-бот GPT-4o говорит голосом, «устрашающе похожим» на ее голос.

Вторая законодательная инициатива, внесенная в Госдуму — об уголовной ответственности за дипфейки — имеет по сравнению с первой гораздо более широкий спектр применения. Жертвой дипфейка может стать каждый. Жители разных стран мира по-разному защищены от дипфейков на законодательном уровне.

В США нет всеобъемлющего федерального закона, запрещающего или регулирующего дипфейки. При этом в стадии обсуждения (порой многолетнего) находится сразу несколько законопроектов. Deepfake Report Act of 2019 предусматривает, чтобы Министерство внутренней безопасности периодически отчитывалось об уровне развития технологий цифрового мошенничества. В DEEPFAKES Accountability Act говорится о защите от дипфейков, представляющих угрозу национальной безопасности, и о юридической защите жертв дипфейков. DEFIANCE Act of 2024 направлен на защиту граждан от создания порнодипфейков. В Protecting Consumers from Deceptive AI Act содержится требование обязательной идентификации контента, созданного или модифицированного с помощью технологий ИИ.

Ряд законов по борьбе с дипфейками принят в США на уровне штатов. В Теннесси и Миссисипи закон защищает голос и изображение человека. В Техасе введена уголовная ответственность за дипфейки, способные повлиять на исход выборов или нанести ущерб кандидату. В Орегоне и Индиане в ходе избирательных кампаний можно использовать изображения, созданные с помощью ИИ, но с условием обязательной их маркировки. Во Флориде, Луизиане, Южной Дакоте действует уголовная ответственность за созданные или измененные с помощью цифровых технологий изображения несовершеннолетних, совершающих сексуальные действия, а в штате Вашингтон — за любые порнодипфейки. Еще ряд законов в разных штатах находится в стадии разработки.

В Евросоюзе 1 августа 2024 года вступил в силу Закон об искусственном интеллекте (EU Artificial Intelligence Act). При этом отдельные его положения начнут применяться в течение последующих 6–36 месяцев. Закон направлен на классификацию и регулирование приложений, использующих искусственный интеллект, в зависимости от риска причинить вред пользователю. ИИ-продукты делятся на три категории: запрещенные системы (с недопустимой степенью риска); системы с высокой степенью риска и остальные системы искусственного интеллекта. Статья 50 (4) данного закона обязывает всех, кто использует ИИ-технологии для создания дипфейков (разработчиков, художников и др.) раскрывать факт создания контента с помощью ИИ.

В Великобритании с 31 января 2024 года в соответствии с Законом о безопасности в сети (Online Safety Act) стало уголовно наказуемым распространение порнодипфейков. В апреле правительство Великобритании предложило ввести уголовную ответственность также за изготовление таких материалов, но в связи со сменой правительства после парламентских выборов в июле судьба данного проекта не ясна.

В июне 2024 года в парламент Австралии был внесен законопроект, согласно которому в уголовный кодекс должна быть добавлена статья об ответственности за распространение дипфейков.

В Южной Корее создание дипфейков порнографического характера с целью их распространения наказывается лишением свободы на срок до пяти лет и штрафом в размере 50 млн вон ($37 500).

В Индии не существует специального закона, регулирующего дипфейки. Но против тех, кто их создает и распространяет, может быть применен закон об уголовной ответственности за мошенничество с применением компьютерных технологий, предусматривающий лишение свободы на срок до 3 лет или штраф на сумму до 20 млн рупий (21,8 млн рублей).

В Сингапуре в сентябре 2024 года в парламент был внесен законопроект о запрете дипфейков и других способов манипулирования изображениями кандидатов во время избирательных кампаний. За распространение такого контента предлагается штрафовать соцсети на сумму до 1 млн сингапурских долларов ($773 тыс.). Физическим лицам, нарушившим закон, грозит тюремное заключение на срок до 12 месяцев, штраф в размере до 1000 сингапурских долларов ($773) или то и другое сразу.

В Китае 10 января 2023 года вступило в силу Положение об администрировании информационных интернет-сервисов глубокого синтеза (иногда его сокращенно называют Положением о глубоком синтезе). Администрация киберпространства Китая дают такое определение глубокого синтеза: «Технология глубокого синтеза относится к использованию глубокого обучения, виртуальной реальности и других алгоритмов генеративного синтеза для создания текста, изображений, аудио, видео, виртуальных сцен и другой сетевой информации». Согласно Положению о глубоком синтезе, подобный контент должен соответствовать правилам контроля информации, маркироваться как искусственно созданный, а его провайдеры обязаны принимать меры по предотвращению неправомерного использования. Запрещается публикация контента, созданного искусственным интеллектом, без специальной маркировки.

О борьбе с немаркированным ИИ-контентом задумываются и российские законодатели. Так, в этом месяце член Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин предложил наделить Роскомнадзор полномочиями по проведению экспертизы для выявления контента, созданного искусственным интеллектом, без маркировки.

Авторы:
Алексей Скворцов
Редакция ADPASS
Главное про маркетинг и рекламу
в Telegram

Вам понравится

Редакция ADPASS
13.09.2024
Редакция ADPASS
10.09.2024
Редакция ADPASS
09.09.2024
Редакция ADPASS
26.08.2024