Судя по всему, документ в среду будет широко представлять для мировой общественности вице-президент Камала Харрис, которая возглавит делегацию США на международном саммите по регулированию ИИ в Великобритании 1-2 ноября.
О подготовке к этому мероприятию ADPASS писал на прошлой неделе. Британский премьер Риши Сунак пригласил на него лидеров Евросоюза, Канады, США, Китая и Илона Маска, известного своим алармистским отношением к ИИ и создающего свой собственный. Говорить политики будут, в том числе, о том, как предотвратить применение ИИ для создания оружия массового поражения, терроризма, кибератак, дезинформации и мошенничества.
Указ Байдена содержит ряд поручений министерствам и федеральным агентствам. Они касаются как безопасности, так и защиты прав потребителей. На правительственном уровне будут разработаны четкие требования к безопасности ИИ-продуктов, которые закупают исполнительные власти. То есть на разработчиков собираются влиять через допуск к госконтрактам.
Министерство труда и Национальный экономический совет должны будут изучить потенциальное воздействие ИИ на рынок труда и при необходимости сформулировать предложения по регулированию в этой сфере. Ведомствам также поручено разработать меры, которые позволят исключить дискриминацию из-за ИИ-алгоритмов в сфере социального жилья, федеральных пособий и правительственных контрактов.
Наконец, Федеральной торговой комиссии (орган напрямую не подчинен Белому дому) рекомендовано повысить бдительность в соблюдении прав потребителей и антимонопольной политики в сфере искусственного интеллекта. Комиссия сделала первый шаг в этом направлении еще в июле, начав расследование в отношении разработчика ChatGPT, компании OpenAI. Ее подозревают в нарушении конфиденциальности пользователей и распространении недостоверной информации о ряде лиц.
Крупнейшие игроки ИИ-сферы заявили, что не против регулирования как такового, но считают, что оно должно быть менее масштабным.
Отрасль уже приступила к саморегулированию. 15 компаний, включая Microsoft, OpenAI, Google и Meta* , подписали соглашение, в котором берут на себя добровольные обязательства в области ИИ-безопасности. Одно из них — разрешить сторонним организациям проводить стресс-тесты их продуктов. OpenAI объявил о создании группы по управлению катастрофическими рисками, которые несет ИИ.
Мягкость американских мер продиктована тем, что власти не собираются препятствовать своим компаниям в борьбе за лидерство в ИИ-сфере.
Поэтому документ, например, содержит указания профильным службам упростить процесс получения виз для высококвалифицированных зарубежных специалистов по искусственному интеллекту.
Указ также анонсирует разработку свода правил, касающихся ИИ и национальной безопасности. Его должны написать к лету 2024 года. Как ожидается, часть требований получат гриф «для служебного пользования» и не будут обнародованы. Например, те, что касаются способов противодействия попыткам иностранных государств или хакерских групп манипулировать ИИ-инструментами в своих целях.
США не спешили с применением регулирующих мер к генеративным технологиям. Первый саммит безопасного ИИ, который пройдет 1-2 ноября под Лондоном, явно спровоцировал появление указа Байдена. В Евросоюзе уже давно идет работа над новыми ограничительными законами в области искусственного интеллекта. В Китае тоже.