Голос можно будет передавать по наследству: в законопроект о синтезированных голосах готовятся поправки
Национальная федерация музыкальной индустрии (НФМИ; лейблы «Блэк Стар», «Лотус Мьюзик», «Медиа Лэнд», «СП Диджитал») вместе с российским Союзом дикторов предложила поправки к законопроекту о синтезированных голосах. Лейблы и дикторы требуют штрафовать за использование голоса, изображения и других признаков личности без разрешения их владельца, сообщает «Коммерсант» со ссылкой на обращения организаций.
Суть законопроекта об охране голоса
Поправки в часть первую Гражданского кодекса РФ были внесены сенаторами Андреем Клишасом, Артемом Шейкиным, Натальей Кувшиновой, Русланом Смашневым и депутатом Даниилом Бессарабовым в Госдуму в сентябре 2024 года. Кодекс предлагали дополнить статьей 152.3 («Охрана голоса гражданина»), которая допускала использование голоса гражданина, в том числе воссозданного с помощью технологий, только с его согласия. В действующем законодательстве не закреплена охрана голоса за исключением случаев, когда голос представлен в составе другого объекта интеллектуальной собственности. После смерти гражданина право на его голос наследуют дети и супруга. Среди санкций за нарушение закона авторы предполагали изъятие записи голоса из оборота и ее уничтожение. Требования проекта не распространяются на использование голоса гражданина в государственных, общественных или иных публичных интересах и не возникают в случаях, когда запись голоса гражданина производилась за плату. Также согласие гражданина не требуется в случаях, когда голос был записан в местах, открытых для свободного посещения, или на публичных мероприятиях, включая собрания, съезды, конференции, концерты, спортивные соревнования и так далее. Исключение составят случаи, когда голос гражданина является основным объектом использования.
Госдума предполагала рассмотреть законопроект в первом чтении в ноябре 2024-го, но рассмотрение было отложено на неопределенный срок
В новых поправках музыкальные лейблы и дикторы предлагают закрепить за россиянами право требовать материальную компенсацию за незаконное использование голоса, изображений и других внешних формы проявления человеческой индивидуальности. Также предполагается, что граждане смогут отзывать согласие на использование изображения или голоса, когда они используются в целях, которые отличаются от указанных в согласии. Эксперты, опрошенные газетой «Коммерсант», утверждают, что предложенный механизм, аналогичен компенсациям за нарушение прав на результаты интеллектуальной деятельности и вместо возмещения убытков или взыскания морального вреда россияне смогут требовать компенсацию за нарушение указанного права.
По словам экспертов, расчет морального вреда, в отличие от компенсации за нарушение интеллектуальных прав, не имеет нормативно установленных критериев. «Список нематериальных благ в ГК РФ открытый, но в отсутствие прямого упоминания охраняемого блага (например, голоса) суды не идут на его защиту», — говорит гендиректор НФМИ Никита Данилов.
Ранее, на Петербургском международном экономическом форуме (ПМЭФ), сенатор Артем Шейкин заявил, что ключевые риски для медиа в использовании искусственного интеллекта состоят в возникновении дезинформации и применении «дипфейков». А в конце июня российские исследователи из Института искусственного интеллекта AIRI при участии «Сбера» и стартапа VeinCV разработали и выложили в открытый доступ алгоритм, защищающий голосовые данные в аудиозаписях — подкастах, вебинарах и интервью — от сбора и создания дипфейков на основе искусственного интеллекта. Цифровая защита может быть вшита в аудиофайлы, она нарушает работу систем автоматического анализа голоса, делая невозможной идентификацию говорящего.
Потери от дипфейков
В марте 2025-го Sony Music объявила об удалении с онлайн-платформ более 75 тыс. дипфейк-песен, созданных искусственным интеллектом с имитацией реальных исполнителей, включая Гарри Стайлса и Бейонсе. Потери шоу-бизнеса от мошенничества компания оценивает в миллионы долларов, не называя конкретных сумм. Компании, не связанные с музыкальным бизнесом, теряют не меньше. В январе 2024-го транснациональная компания из Гонконга потеряла $26 млн из-за фейкового группового видеозвонка, в ходе которого сгенерированные ИИ коллеги уговорили финансового директора перечислить деньги на счет мошенников. А в ОАЭ преступники клонировали голос финдиректора банка и похитили $35 млн.
По результатам исследования MTS AI, каждая пятая российская компания подверглась успешной атаке с применением дипфейков, когда преступники с помощью ИИ подделывают голос или изображение и выдают себя за руководителей компании. При этом уровень защиты от таких угроз остается крайне низким — лишь 3% российских компаний полностью уверены в безопасности своего бизнеса.
Первой страной в мире, которая признает лицо, голос и даже манеру поведения каждого гражданина его личной интеллектуальной собственностью, может стать Дания. Соответствующий законопроект внесен в парламент страны, на предварительных слушаниях парламентарии почти единогласно поддержали идею.
Неделя рекламы
Энциклопедия обмана