Министерство цифрового развития официально допустило возможность введение обязательной маркировки контента, созданного с использованием технологий искусственного интеллекта. За распространение дипфейков без согласия изображенных или озвученных лиц может грозить уголовная ответственность. Сейчас Минфин концентрируется на разработке и согласовании необходимых юридических формулировок, которые станет основой для регулирования сферы. Законы об обязательной маркировке ИИ-контента приняты в Китае, Евросоюзе и Южной Корее. В США и Канаде аналогичные документы находятся в стадии активной разработки. Инструментов гарантированного распознавания синтетического контента пока нет, а появление наказаний за ИИ-фейки не заставит мошенников отказаться от использования нейросетей.
Photo by Markus Spiske on Unsplash
В конце мая Институт социально-экономического анализа и программ развития (ИСАПР) обратился к премьер-министру Мишустину с предложением обязать физические и юридические лица маркировать контент, созданный средствами искусственного интеллекта. Согласно оценкам экспертов института, такая мера позволит эффективно противодействовать распространению дипфейков и повысит уровень защиты пользователей от недостоверной информации. В рамках предложенной инициативы предусмотрены штрафные санкции за несоблюдение указанных требований, сопоставимые с теми, которые применяются за неправомерную обработку персональных данных. С ответом на инициативу ИСАПР ознакомились «Известия».
В официальном ответе за подписью заместителя министра Александра Шойтова отмечается, что в настоящее время приоритетной задачей является законодательное оформление правового режима, регулирующего правомерное создание, распространение и использование ИИ-контента. Важнейшей проблемой остается отсутствие унифицированного понятийного аппарата — такие ключевые термины, как «дипфейк», «искусственный интеллект» и «синтетический контент», пока не получили четкого юридического определения.
В документе подчеркивается, что потребуется детальная проработка вопроса введения обязательной маркировки цифрового контента и механизмов её эффективного контроля с целью предотвращения случаев мошенничества. Реализация данной инициативы предполагает определение перечня уполномоченных органов и круга субъектов, обязанных осуществлять маркировку создаваемого ими контента. Дополнительно предстоит разработать соответствующие технические процедуры и инструменты, предназначенные для идентификации и последующего маркирования дипфейков. В частности, указанные мероприятия будут реализованы в рамках функционирования «Единой системы», развиваемой автономной некоммерческой организацией «Диалог Регионы», а также в рамках реализации национального проекта «Экономика данных и цифровая трансформация государства», уточнили представители Министерства цифрового развития.
«В настоящее время Минцифры России совместно с Роскомнадзором и заинтересованными федеральными органами исполнительной власти ведется разработка предложений об установлении требований по маркированию контента, легально производимого и распространяемого посредством информационных технологий, в том числе созданного с использованием технологий искусственного интеллекта и цифровой подмены фото- и видеоизображений человека», — говорится в ответе.
Кроме того, в письме говорится о возможности рассмотрения вопроса о введении новой уголовно-правовой нормы, предусматривающей ответственность за создание, распространение или использование синтетического контента, полученного с использованием технологий искусственного интеллекта, без предварительного согласия физического лица, чье изображение или голос были использованы. Такая норма будет предусматривать наступление уголовной ответственности в случаях, когда применение дипфейков повлекло за собой ущерб правам и законным интересам указанного лица.
На запрос издания с просьбой прокомментировать ситуацию с ИИ-контентом, в Минцифре ответили, что в настоящий момент совместно с профильными ведомствами активно ведутся обсуждения относительно введения обязательной маркировки легального контента, произведенного с использованием технологий искусственного интеллекта. Одновременно рассматривается вопрос установления уголовной ответственности за распространение синтетического контента, содержащего изображения или голоса третьих лиц без их согласия.
Как в мире собираются маркировать ИИ-контент
Вопрос о необходимости обязательной маркировки контента, созданного с помощью ИИ, активно обсуждается и регулируется по всему миру.
Евросоюз
Принятый в Евросоюзе Акта об искусственном интеллекте (EU AI Act) предусматривает обязательную маркировку синтетического контента, созданного ИИ, включая тексты, изображения, аудио и видео. Требования к маркировке включают как машинно-распознаваемые, так и, возможно, видимые для пользователя водяные знаки или метаданные. Нарушение этих требований может повлечь крупные штрафы. Закон вступают в силу 2 августа 2026 года.
Северная Америка
США: В Конгрессе обсуждается законопроект AI Labeling Act, который может обязать разработчиков ИИ-систем указывать, что контент создан с помощью ИИ. На уровне Белого дома и крупных технологических компаний также ведутся инициативы по внедрению добровольных и технических механизмов маркировки. Законодательная норма еще не принята.
Канада: Вопрос о маркировке ИИ-контента обсуждается в рамках дискуссии о регулировании ИИ, но пока не закреплен на законодательном уровне.
Азия
Китай: В марте 2025 года опубликованы обязательные правила маркировки ИИ-контента, вступающие в силу с 1 сентября 2025 года. Требуется явная (видимая) и неявная (метаданные) маркировка всего синтетического контента, а также ответственность платформ за проверку соблюдения этих требований.
Южная Корея: В январе 2025 года был принят специальный закон (AI Framework Act), который требует прозрачности и маркировки контента, созданного генеративным ИИ, особенно в чувствительных сферах. Закон вступает в силу с 22 января 2026 года.
Япония: В стране действует добровольный подход, основанный на принципах этики и прозрачности, без обязательных требований к маркировке, но вопрос активно обсуждается на государственном уровне.
Мнения экспертов
Директор ИСАПР Андрей Шуриков подчеркнул, что на сегодняшний день не существует стопроцентно надёжного метода, позволяющего гарантированно отличать промаркированный контент, созданный с помощью технологий искусственного интеллекта, от немаркированного. Однако эксперт отметил, что определённые механизмы и технологии, позволяющие идентифицировать значительную долю подобного контента, уже разработаны и успешно апробируются.
На рынке присутствуют специализированные сервисы, способные анализировать видеоматериалы и изображения на предмет наличия признаков обработки с использованием технологий искусственного интеллекта, рассказал директор департамента компании IT DCLogic Михаил Копнин. При этом эксперт акцентирует внимание на том, что введение обязательной маркировки всего контента, созданного посредством нейросетевых алгоритмов, представляется избыточным. По его мнению, большинство пользователей зачастую не придают значения тому факту, что, например, маршруты в навигационных приложениях формируются именно благодаря работе ИИ-экспертных систем. Одновременно с этим Михаил Копнин сомневается в эффективности маркировки как инструмента борьбы с противоправным использованием технологий искусственного интеллекта. Лица, занимающиеся созданием вредоносного контента, едва ли станут придерживаться установленных правил и добровольно помечать свою продукцию соответствующими метками, прогнозирует эксперт.
Главный архитектор систем искусственного интеллекта исследовательского центра искусственного интеллекта НИЯУ МИФИ по направлению «Транспорт и логистика» Роман Душкин выразил обеспокоенность по поводу возможного введения уголовной ответственности за распространение не промаркированных дипфейков. По его мнению, столь серьёзные меры требуют крайне взвешенного подхода и тщательного изучения практики использования соответствующего контента. Эксперт подчеркнул, что внедрение подобной нормы несёт в себе риск усложнения жизни законопослушным гражданам, не нарушающим действующих норм законодательства, тогда как реальные злоумышленники, скорее всего, продолжат действовать в прежнем режиме. Лица, уже вовлеченные в деятельность по созданию и распространению подобного контента и принимающие на себя сопутствующие риски, вряд ли откажутся от своей деятельности даже в условиях ужесточения правовых мер и появления угрозы уголовного преследования, резюмирует Роман Душкин.