20.06.2024, 17:27

«Мозг OpenAI» будет строить безопасный сверхразум: Илья Суцкевер создал свой стартап

Илья Суцкевер, уроженец СССР, руководивший разработкой нейросетей в основе ChatGPT, объявил о создании Safe Superintelligence Inc. (SSI). Теперь он конкурент родной OpenAI, в которой пытался устроить переворот. О планах новой компании, кроме тех, что она за хороший и ответственный ИИ, пока известно мало. Вопрос в том, найдет ли она свой Microsoft, который поддержит бунтаря-альтруиста, не признающего «краткосрочное коммерческое давление». Слухи о том, что Суцкевер возвращается в Россию и будет делать проект с одним из крупных банков, не подтвердились.

«Важнейшая технологическая проблема»

В краткой (и пока единственной) публикации-манифесте на сайте SSI сказано, что компания зарегистрирована в США и имеет офисы в Пало-Альто (штат Калифорния) и Тель-Авиве. Поясняется, что там у нее «глубокие корни» и возможность привлекать высококлассных технических специалистов. В той же публикации этих специалистов приглашают присоединиться к «небольшой чокнутой команде» (lean cracked team), которая «сфокусирована на безопасном сверхразуме и ни на чем больше».

Слева направо: новый научный руководитель OpenAI Якоб Пачоцки, президент компании Грег Брокман, Илья Суцкевер, гендиректор Сэм Альтман, главный технический директор Мира Мурати. @ilyasut//x.com

Кто такой Илья Суцкевер

Имя Суцкевера впервые оказалось на слуху осенью прошлого года, когда он стал одним из лидеров неудавшегося путча против гендиректора компании Сэма Альтмана. Но в узких кругах уроженец г. Горький, в детстве переехавший в Канаду с семьей, уже более десяти лет известен как один из ведущих мировых экспертов в сфере машинного обучения. Первый ИИ-стартап, в котором Суцкевер был сооснователем, купил Google в 2013 году, взяв только-только защитившего диссертацию специалиста на работу. Там он кардинально улучшил «Google Переводчик», внедрив нейросети, приложил руку к созданию низложившего чемпионов по игре в го ИИ AlphaGo и системы TensorFlow — широко применяемого разработчиками инструментария для проектирования и обучения нейросетей. В 2015-м Суцкевер принял предложение Илона Маска стать сооснователем и научным руководителем OpenAI. В компании он возглавлял разработку больших языковых моделей семейства GPT от первых версий до GPT-4.

Публикацию с анонсом и приглашением к сотрудничеству помимо Ильи Суцкевера подписали еще двое сооснователей: экс-партнер стартап-акселератора Y Combinator, в прошлом курировавший ИИ-направление в Apple Дэниел Гросс и возглавлявший в OpenAI команду по оптимизации нейросетей программист Дэниел Леви. В манифесте создатели компании постулируют, что создание безопасного ИИ, превосходящего человеческие способности («сверхразума»), является самой важной в сегодняшнем мире технологической проблемой.

«SSI — это наша миссия, наше имя, и вся наша дорожная карта, потому что это единственное, на чем мы сфокусированы. Наша команда, инвесторы и бизнес-модель все нацелены на то, чтобы достичь безопасного сверхразума», — утверждают они.

Илья Суцкевер и его коллеги обещают, что компания не станет отвлекаться ни на что другое, избегая излишних накладных расходов на управление и обязательных циклов выпуска продуктов.

«Наша бизнес-модель подразумевает, что и безопасность, и защищенность, и прогресс защищены от краткосрочного коммерческого давления», — сказано на сайте SSI.

Чтобы инвесторы не мешали

Возможно, именно «коммерческое давление» стало причиной ухода Ильи Суцкевера из OpenAI — ему, похоже, не нравилось, что на направление развития компании все сильнее влияет Microsoft. IT-гигант вложил в OpenAI $11 млрд и с прошлого года широко внедряет технологии компании в Windows, Office и ряд других популярных продуктов для индивидуальных и корпоративных пользователей. Как именно SSI собирается избежать давления собственных инвесторов, кем бы они ни были, не уточняется.

После анонса о запуске нового проекта Илья Суцкевер дал интервью Bloomberg. Издание пишет, что SSI будет чисто исследовательской организацией и не имеет на ближайшую перспективу планов продавать продукты или услуги — по крайней мере, пока задача создания «сверхразума» не будет достигнута.

Как Илья Суцкевер ушел из OpenAI

17 ноября 2023 года OpenAI объявила, что совет директоров компании большинством голосов уволил гендиректора Сэма Альтмана. Он якобы вводил в заблуждение других руководителей стартапа и пытался манипулировать ими. Илья Суцкевер на общем собрании заявил сотрудникам компании, что увольнение Сэма Альтмана было необходимым «для защиты миссии OpenAI». Спустя несколько дней он публично раскаялся в организации мятежа, а Сэм Альтман, которого поддержала вложившаяся в OpenAI Microsoft, триумфально вернулся. Илья Суцкевер покинул совет директоров вместе с другими оппонентами Сэма Альтмана, но остался в компании до середины мая 2024 года. 14 мая он объявил, что покидает OpenAI ради проекта, который «лично для него много значит».

SSI, по словам Ильи Суцкевера, «будет полностью изолирован от внешнего давления, связанного с необходимостью работать с большим и сложным продуктом и участвовать в конкурентных крысиных бегах». При этом назвать тех, кто предоставил SSI финансовую поддержку, как и сумму привлекаемых инвестиций, глава новой компании отказался. Тем не менее, его коллега Дэниел Гросс уверенно заявил Bloomberg, что проблемы привлечения капитала нет среди тех, с которыми сталкивается новая компания.

«Было очень странно»

На просьбу описать свой опыт последних месяцев, когда вся IT-отрасль гадала, куда Илья Суцкевер перейдет из OpenAI, он сказал: «Было очень странно. Очень. Я не знаю, могу ли я дать другой, лучший ответ». В мае ходили слухи, что Илья Суцкевер может вернуться в Россию, где его ждет предложение «одного из крупнейших банков». Старший вице-президент Андрей Белевцев, курирующий все технологические проекты «Сбера», отказался комментировать такие вещи, но сказал, что «Сбер» приветствует, «когда такие таланты будут возвращаться на родину». История не получила продолжения.

В любом случае с заявленным кредо SSI «сначала продукт — потом бизнес», привлечь инвесторов будет непросто. Тем более среди ИИ-визионеров сейчас нет уверенности, что создать равный человеческому или превосходящий его искусственный разум в принципе возможно. Например, глава ИИ-направления Meta* и один из признанных авторитетов отрасли Ян Лекун уверен, что большие языковые модели такого уровня разумности не достигнут вообще никогда. В масштабном отчете специалисты Института человекоориентированного ИИ при Стэнфордском университете приводят прогноз исследовательской фирмы Epoch о том, что данные для тренировки таких нейросетей закончатся уже в текущем году, что остановит или критически замедлит их эволюцию.

Как разработчики будут обеспечивать безопасность сверхразума (и что конкретно под ней подразумевается) Илья Суцкевер тоже пока не говорит. Но подчеркивает, что речь идет не об ограничениях, устанавливаемых вокруг технологии на лету, в процессе ее разработки, а о безопасности, встроенной в систему на этапе ее создания. «Безопасная — как в словосочетании «ядерная безопасность»», — пояснил он Bloomberg.

*признана экстремистской и запрещена в РФ

Авторы:
Николай Белый
Редакция ADPASS
Главное про маркетинг и рекламу
в Telegram

Вам понравится

Редакция ADPASS
01.07.2024
Редакция ADPASS
25.06.2024
Редакция ADPASS
20.06.2024
Редакция ADPASS
05.06.2024
Как сделать промо
настоящим искусством?