Большие языковые модели, лежащие в основе ИИ-сервисов, таких как чат-бот ChatGPT и поисковик Perplexity, до сих пор остаются в значительной степени «черным ящиком» — мы до конца не знаем, как именно они делают то, что делают. Поэтому неясно пока и то, в каких условиях придется работать отрасли поисковой рекламы в эпоху расцвета ИИ-технологий. ADPASS изучил несколько примеров того, как работающие в CRM (управления взаимоотношениями с клиентами), интернет-поиске и SEO (оптимизация сайтов под поисковики) компании пытаются помочь брендам освоить эту terra incognita.
США снизят интеллектуальные способности ИИ
Президент США подпишет сегодня указ, который станет первым в истории страны и мира шагом к регулированию систем искусственного интеллекта. ИИ-продукты американских компаний будут тестировать на возможность применения для создания оружия массового уничтожения, ограничат доступ к ним конкурирующим странам, прежде всего Китаю, а на генерируемые нейросетями изображения рекомендуют наносить маркировку, чтобы не вмешивались в грядущие выборы президента.
Об этом пишет The New York Times со ссылкой на замглавы аппарата Белого дома Брюса Рида, анонсировавшего документ. Чиновник утверждает, что это «самый сильный комплекс мер» для обеспечения безопасности ИИ, когда-либо принимавшийся в мире. «Это следующий шаг в агрессивной стратегии, призванной сделать все, на всех фронтах, чтобы использовать преимущества ИИ и снизить риски», — заявил Рид.
Какие меры примут США в отношении разработчиков ИИ и облачных сервисов
Конкретных требований в документе содержится не так много.
Во-первых, разработчикам придется тестировать свои системы искусственного интеллекта, чтобы исключить возможность их применения в создании ядерного или биологического оружия. Результаты тестов компании должны будут передавать властям. И речь не идет о существующих инструментах, только о будущих, более мощных.
Угрозу нынешнего поколения чат-ботов, уже активно применяемых в кампаниях дезинформации по всему миру, указ игнорирует.
Во-вторых, компании-владельцы облачных сервисов обяжут докладывать федеральному правительству о своих зарубежных клиентах. Так хотят ограничить возможности, например, китайских бигтехов получать доступ к вычислительным мощностям для разработки собственного продвинутого ИИ.
С той же целью — сдержать развитие конкурирующих технологий искусственного интеллекта — с середине октября запрещены поставки в Китай высокопроизводительных чипов, применяемых для тренировки больших языковых моделей. Такие модели обеспечивают работу ChatGPT и ему подобных.
В указе также содержится рекомендация (не директива) снабжать создаваемые ИИ изображения, видео и аудиоматериалы «водяными знаками».
Так будет легче бороться с дипфейками, являющимися наиболее эффективной формой дезинформации. Этот вопрос в свете президентских выборов-2024 очень важен для действующей администрации. Ведущие игроки отрасли еще летом пообещали ей, что будут внедрять такую маркировку.
Указ Байдена пришелся к саммиту Сунака
Судя по всему, документ в среду будет широко представлять для мировой общественности вице-президент Камала Харрис, которая возглавит делегацию США на международном саммите по регулированию ИИ в Великобритании 1-2 ноября.
О подготовке к этому мероприятию ADPASS писал на прошлой неделе. Британский премьер Риши Сунак пригласил на него лидеров Евросоюза, Канады, США, Китая и Илона Маска, известного своим алармистским отношением к ИИ и создающего свой собственный. Говорить политики будут, в том числе, о том, как предотвратить применение ИИ для создания оружия массового поражения, терроризма, кибератак, дезинформации и мошенничества.
Что будут регулировать в искусственном интеллекте
Указ Байдена содержит ряд поручений министерствам и федеральным агентствам. Они касаются как безопасности, так и защиты прав потребителей. На правительственном уровне будут разработаны четкие требования к безопасности ИИ-продуктов, которые закупают исполнительные власти. То есть на разработчиков собираются влиять через допуск к госконтрактам.
Министерство труда и Национальный экономический совет должны будут изучить потенциальное воздействие ИИ на рынок труда и при необходимости сформулировать предложения по регулированию в этой сфере. Ведомствам также поручено разработать меры, которые позволят исключить дискриминацию из-за ИИ-алгоритмов в сфере социального жилья, федеральных пособий и правительственных контрактов.
Наконец, Федеральной торговой комиссии (орган напрямую не подчинен Белому дому) рекомендовано повысить бдительность в соблюдении прав потребителей и антимонопольной политики в сфере искусственного интеллекта. Комиссия сделала первый шаг в этом направлении еще в июле, начав расследование в отношении разработчика ChatGPT, компании OpenAI. Ее подозревают в нарушении конфиденциальности пользователей и распространении недостоверной информации о ряде лиц.
Крупнейшие игроки ИИ-сферы заявили, что не против регулирования как такового, но считают, что оно должно быть менее масштабным.
Отрасль уже приступила к саморегулированию. 15 компаний, включая Microsoft, OpenAI, Google и Meta* , подписали соглашение, в котором берут на себя добровольные обязательства в области ИИ-безопасности. Одно из них — разрешить сторонним организациям проводить стресс-тесты их продуктов. OpenAI объявил о создании группы по управлению катастрофическими рисками, которые несет ИИ.
Мягкость американских мер продиктована тем, что власти не собираются препятствовать своим компаниям в борьбе за лидерство в ИИ-сфере.
Поэтому документ, например, содержит указания профильным службам упростить процесс получения виз для высококвалифицированных зарубежных специалистов по искусственному интеллекту.
Указ также анонсирует разработку свода правил, касающихся ИИ и национальной безопасности. Его должны написать к лету 2024 года. Как ожидается, часть требований получат гриф «для служебного пользования» и не будут обнародованы. Например, те, что касаются способов противодействия попыткам иностранных государств или хакерских групп манипулировать ИИ-инструментами в своих целях.
США не спешили с применением регулирующих мер к генеративным технологиям. Первый саммит безопасного ИИ, который пройдет 1-2 ноября под Лондоном, явно спровоцировал появление указа Байдена. В Евросоюзе уже давно идет работа над новыми ограничительными законами в области искусственного интеллекта. В Китае тоже.
* признана экстремистской организацией и запрещена в РФ
Лучшее в блогах
Вам понравится
В мире, где с каждым годом все больше людей чувствуют себя одинокими, активно развивается сфера сервисов, предлагающих общение с цифровыми ИИ-компаньонами. Но полезно ли людям устанавливать эмоциональную связь с «выдуманными друзьями», и какие последствия это может иметь для психики? Корреспондент ADPASS протестировал Replika — сайт и приложение от стартапа с российскими корнями, позволяющие завести виртуального друга или партнера, который всегда готов выслушать и поддержать.
Огромные вложения IT-гигантов и стартапов в инфраструктуру, обеспечивающую работу искусственного интеллекта, продолжают вызывать тревогу у осторожных инвесторов. В венчурном фонде Sequoia Capital сопоставили траты на ИИ-оборудование с ожидаемыми доходами отрасли и пришли к выводу: в данный момент ситуация напоминает мыльный пузырь, который рано или поздно лопнет вместе с надеждами большинства игроков — кроме тех, кому удастся создать действительно полезный для потребителей и востребованный ими продукт.
На многих фотостоках стало труднее скачивать качественные картинки, а креативы для цифровой наружной рекламы делать нужно. Нейросеть в таких обстоятельствах — отличный помощник. Сегодня рассказываем, как делать креативы для digital-экранов через нейросети, и показываем готовые макеты.
ПОДПИСКА
ВАШ ЗАПРОС ДОСТАВЛЕН
О блогах ADPASS: правила, рекомендации, ответы на вопросы