ADPASS рекомендует материал к прочтению
Agenda Media Group
21.09.2023, 13:50

Человек и машина в правовой сфере: как обучить нейросети действовать в соответствии с законом

Алексей Парфун, CEO Agenda Media Group, вице-президент АКАР, рассмотрел юридические аспекты использования ИИ и дипфейков в мире.

В России обсуждают введение уголовного наказания за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. Об этом сообщило издание «Известия». Такой законопроект планировали внести в Госдуму в весеннюю сессию, но 4 июня издание ТАСС сообщило о том, что комиссия правительства по законопроектной деятельности не поддержала законопроект о введении отдельной уголовной ответственности за распространение так называемых дипфейков.

Вопрос регулирования использования дипфейков просто необходим, это полезная и важная инициатива. Как это часто бывает, первыми передовые технологии начинают осваивать мошенники разного сорта, и законодательное регулирование этого вопроса неизбежно. Поговорим подробнее о мировых практиках и о России в частности.

Мировая практика

Законодательное регулирование нейросетей и продуктов, ими производимых — один из трендов и вызовов 2023 года. Помимо этого, существуют комплекс этических вопросов и цивилизационных рисков, создаваемых бурным развитием ИИ.

В апреле этого года мы узнали об инициативах руководств США и Китая, направленных на регулирование этих вопросов и вызовов. The Wall Street Journal сообщает, что администрация президента США Джо Байдена начала исследовать вопрос о необходимости регулирования сервисов искусственного интеллекта, включая чат-бот ChatGPT.

11 апреля Национальное управление по телекоммуникациям и информации США начало процесс разработки руководящих принципов, которые, с их точки зрения, должны гарантировать, что системы ИИ делают то, что они должны делать, и, что, возможно, более важно, не делают того, что они не должны делать.

Ответственные системы искусственного интеллекта могут принести огромную пользу, но только если мы устраним их потенциальные последствия и вред.

Алан Дэвидсон
Руководитель Национального управления по телекоммуникациям и информации США

Проект документа выложен для общественного диалога и, по замыслу разработчиков, призван ответить на четыре ключевых вопроса:

  • Какие виды тестирования на безопасность должны проводить компании — разработчики ИИ?

  • Какие виды доступа к данным необходимы для проведения аудитов и оценок?

  • Как регулирующие органы должны обеспечивать безопасность систем ИИ?

  • Какие различные подходы могут потребоваться в различных отраслях промышленности, таких как трудовое право или здравоохранение?

Однако закон об авторских правах, промышленных образцах и патентах Великобритании устанавливает, что автором литературного, драматического, музыкального или художественного произведения, созданного с помощью компьютера, является лицо, которое приняло необходимые меры для его создания.

В США в последнее время участились случаи протестов художников, копирайтеров и дикторов против использования нейросетей в сферах их профессиональной компетенции. В декабре прошлого года группа художников с портала ArtStation выступила против публикации изображений, сгенерированных нейросетями. В январе ещё одна группа художников подала в суд на ряд нейросетевых платформ за использование ими авторских работ в процессе обучения нейронных сетей без согласия авторов. Идёт судебный процесс художницы Крис Каштановой, которой отказали в правах на комикс, отрисованный нейросетями. Причём художнице сначала зарегистрировали права на комикс целиком, а потом пересмотрели лицензию и убрали права на изображения.

Это решение породило множество дискуссий на тему, что же может считаться достаточным вкладом человека в процесс создания произведения. Итоговое решение бюро регистрации авторских прав США выглядело так: Каштанова «является автором текста Произведения, а также подбора, согласования и расположения письменных и визуальных элементов Произведения». Но не автором изображений.

Евросоюз недавно сообщил, что планирует ужесточить регулирование сферы искусственного интеллекта. С таким предложением выступил еврокомиссар по внутреннему рынку Тьерри Бретон. Он заявил, что решения на базе ИИ, в частности ChatGPT, могут применяться для создания фейков, мошенничества различного рода, а также плагиата. В Брюсселе обсуждается закон об искусственном интеллекте, который будет направлен на снижение рисков, представляемых различными моделями искусственного интеллекта. Вступление в действие этого закона намечено на 2023 год.

В законе об авторском праве в Австралии прямо указывается на требование, что автором может быть только «квалифицированное лицо», что исключает возможность нейронной сети быть автором произведения. Аналогичная ситуация существует в Канаде, где автором произведения может быть только гражданин Канады или лицо, проживающее в Канаде. Таким образом, правовое регулирование применяется только в случаях, когда компьютер является вспомогательным инструментом при создании объекта творчества, а не при полном создании произведения нейросетью.

Предлагается ограничить охрану произведений, созданных искусственным интеллектом, и рассматривать их как товарный знак, отводя правовое регулирование в область недобросовестной конкуренции. При таком подходе права на цифровые произведения будут принадлежать создателю соответствующего алгоритма, что может ограничить защиту популярных произведений и вывести их из сферы действия авторского права.

В Китае с 10 января 2023 года действуют правила, введённые Администрацией киберпространства Китая (CAC), которые запрещают создавать дипфейки без разрешения самого субъекта или во вред национальным интересам. Дипфейки разрешены в том случае, если они не несут «вредоносную информацию» и маркируются как контент, созданный с помощью искусственного интеллекта. Маркировка будет обязательной для всего контента, производимого с помощью искусственного интеллекта, её нельзя скрывать. Данный путь представляется вполне логичным и понятным.

11 апреля управление по вопросам киберпространства КНР опубликовало проект «Меры по управлению службами генеративного искусственного интеллекта» и открыло его для комментариев. В документе прямо оговорено, что меры касаются продуктов, относящихся к технологиям, которые генерируют текст, изображения, звуки, видео, коды и другой контент на основе алгоритмов, моделей и правил. Заметный резонанс вызвала предлагаемая в этом проекте мера по обязательной маркировке сгенерированных изображений, видео и других видов контента.

Одна из статей предлагаемого проекта напрямую запрещает использование генеративного контента в рекламе — «провайдер должен направлять пользователей к научному пониманию и рациональному использованию контента, созданного с помощью генеративного искусственного интеллекта, не использовать сгенерированный контент для нанесения ущерба имиджу, репутации и другим законным правам и интересам других лиц, а также не заниматься коммерческой рекламой или некорректным маркетингом».

Российская практика

В России отсутствует чётко определённый правовой статус нейросетей и продуктов, созданных с их помощью. Ключевой нормой в регулировании выступает ст. 1257 Гражданского кодекса (ГК РФ), в соответствии с которой «автором произведения науки, литературы или искусства признаётся гражданин, творческим трудом которого оно создано». В 2022 году законодатели в России предприняли попытку закрепить правовой статус цифрового искусства. В мае 22 года в Государственную думу был внесён законопроект, содержащий поправки к статье 1225 ГК РФ. Авторы инициативы предложили рассматривать невзаимозаменяемые токены (NFT) как интеллектуальную собственность. Законопроект не прошёл дальше в связи с отсутствием в российском законодательстве определений понятий «цифровой контент», «цифровой актив», «невзаимозаменяемые данные» и «блокчейн». Формирование глоссария и законодательных норм, касающихся сферы ИИ, представляется сегодня одним из ключевых вызовов для законотворцев. Остаётся лишь пожелать им удачи в этом и предложить помощь профессионального сообщества.

Помните три закона роботехники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод»? Первый закон категорически запрещает роботу вредить людям, второй — приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону. И наконец, третий закон приказывает роботу защищать свою жизнь, не нарушая первых двух.

Формируемые принципы звучат так:

  • Принцип прозрачности, который предполагает, что нейросети должны быть понятными и объяснимыми для пользователей.

  • Принцип ответственности, который подразумевает, что создатели и владельцы нейросетей несут ответственность за их использование и возможные последствия.

  • Принцип справедливости, который требует, чтобы нейросети не дискриминировали людей на основе расы, пола, возраста и других характеристик.

  • Принцип безопасности, который подразумевает, что нейросети должны быть защищены от злоупотреблений и кибератак.

Эти принципы призваны обеспечить этическое использование нейросетей и защитить права и интересы пользователей.

Будем наблюдать за формированием международной и российской практики в сфере регулирования ИИ. Там впереди много интересного.

Вам понравится

Digital Caramel
03.05.2024
Best Cases Conference
08.04.2024
Как создать полезный гид
для предпринимателей?