30.10.2023, 21:09

США снизят интеллектуальные способности ИИ

Президент США подпишет сегодня указ, который станет первым в истории страны и мира шагом к регулированию систем искусственного интеллекта. ИИ-продукты американских компаний будут тестировать на возможность применения для создания оружия массового уничтожения, ограничат доступ к ним конкурирующим странам, прежде всего Китаю, а на генерируемые нейросетями изображения рекомендуют наносить маркировку, чтобы не вмешивались в грядущие выборы президента.

Изображение: https://www.freepik.com/

Об этом пишет The New York Times со ссылкой на замглавы аппарата Белого дома Брюса Рида, анонсировавшего документ. Чиновник утверждает, что это «самый сильный комплекс мер» для обеспечения безопасности ИИ, когда-либо принимавшийся в мире. «Это следующий шаг в агрессивной стратегии, призванной сделать все, на всех фронтах, чтобы использовать преимущества ИИ и снизить риски», — заявил Рид.

Какие меры примут США в отношении разработчиков ИИ и облачных сервисов

Конкретных требований в документе содержится не так много.

Во-первых, разработчикам придется тестировать свои системы искусственного интеллекта, чтобы исключить возможность их применения в создании ядерного или биологического оружия. Результаты тестов компании должны будут передавать властям. И речь не идет о существующих инструментах, только о будущих, более мощных.

Угрозу нынешнего поколения чат-ботов, уже активно применяемых в кампаниях дезинформации по всему миру, указ игнорирует.

Во-вторых, компании-владельцы облачных сервисов обяжут докладывать федеральному правительству о своих зарубежных клиентах. Так хотят ограничить возможности, например, китайских бигтехов получать доступ к вычислительным мощностям для разработки собственного продвинутого ИИ.

С той же целью — сдержать развитие конкурирующих технологий искусственного интеллекта — с середине октября запрещены поставки в Китай высокопроизводительных чипов, применяемых для тренировки больших языковых моделей. Такие модели обеспечивают работу ChatGPT и ему подобных.

В указе также содержится рекомендация (не директива) снабжать создаваемые ИИ изображения, видео и аудиоматериалы «водяными знаками».

Так будет легче бороться с дипфейками, являющимися наиболее эффективной формой дезинформации. Этот вопрос в свете президентских выборов-2024 очень важен для действующей администрации. Ведущие игроки отрасли еще летом пообещали ей, что будут внедрять такую маркировку.

Указ Байдена пришелся к саммиту Сунака

Судя по всему, документ в среду будет широко представлять для мировой общественности вице-президент Камала Харрис, которая возглавит делегацию США на международном саммите по регулированию ИИ в Великобритании 1-2 ноября.

О подготовке к этому мероприятию ADPASS писал на прошлой неделе. Британский премьер Риши Сунак пригласил на него лидеров Евросоюза, Канады, США, Китая и Илона Маска, известного своим алармистским отношением к ИИ и создающего свой собственный. Говорить политики будут, в том числе, о том, как предотвратить применение ИИ для создания оружия массового поражения, терроризма, кибератак, дезинформации и мошенничества.

Что будут регулировать в искусственном интеллекте

Указ Байдена содержит ряд поручений министерствам и федеральным агентствам. Они касаются как безопасности, так и защиты прав потребителей. На правительственном уровне будут разработаны четкие требования к безопасности ИИ-продуктов, которые закупают исполнительные власти. То есть на разработчиков собираются влиять через допуск к госконтрактам.

Министерство труда и Национальный экономический совет должны будут изучить потенциальное воздействие ИИ на рынок труда и при необходимости сформулировать предложения по регулированию в этой сфере. Ведомствам также поручено разработать меры, которые позволят исключить дискриминацию из-за ИИ-алгоритмов в сфере социального жилья, федеральных пособий и правительственных контрактов.

Наконец, Федеральной торговой комиссии (орган напрямую не подчинен Белому дому) рекомендовано повысить бдительность в соблюдении прав потребителей и антимонопольной политики в сфере искусственного интеллекта. Комиссия сделала первый шаг в этом направлении еще в июле, начав расследование в отношении разработчика ChatGPT, компании OpenAI. Ее подозревают в нарушении конфиденциальности пользователей и распространении недостоверной информации о ряде лиц.

Крупнейшие игроки ИИ-сферы заявили, что не против регулирования как такового, но считают, что оно должно быть менее масштабным.

Отрасль уже приступила к саморегулированию. 15 компаний, включая Microsoft, OpenAI, Google и Meta* , подписали соглашение, в котором берут на себя добровольные обязательства в области ИИ-безопасности. Одно из них — разрешить сторонним организациям проводить стресс-тесты их продуктов. OpenAI объявил о создании группы по управлению катастрофическими рисками, которые несет ИИ.

Мягкость американских мер продиктована тем, что власти не собираются препятствовать своим компаниям в борьбе за лидерство в ИИ-сфере.

Поэтому документ, например, содержит указания профильным службам упростить процесс получения виз для высококвалифицированных зарубежных специалистов по искусственному интеллекту.

Указ также анонсирует разработку свода правил, касающихся ИИ и национальной безопасности. Его должны написать к лету 2024 года. Как ожидается, часть требований получат гриф «для служебного пользования» и не будут обнародованы. Например, те, что касаются способов противодействия попыткам иностранных государств или хакерских групп манипулировать ИИ-инструментами в своих целях.

США не спешили с применением регулирующих мер к генеративным технологиям. Первый саммит безопасного ИИ, который пройдет 1-2 ноября под Лондоном, явно спровоцировал появление указа Байдена. В Евросоюзе уже давно идет работа над новыми ограничительными законами в области искусственного интеллекта. В Китае тоже.


* признана экстремистской организацией и запрещена в РФ

Авторы:
Николай Белый
Редакция ADPASS
Главное про маркетинг и рекламу
в Telegram

Вам понравится

Редакция ADPASS
26.08.2024
Редакция ADPASS
22.08.2024
Редакция ADPASS
13.08.2024
DRON.DIGITAL
08.08.2024