OpenAI
GPT с картинками: чем четвертая языковая модель OpenAI превосходит GPT-3.5 и как ответил конкуренту Google
OpenAI представила четвертое поколение своей языковой генеративной модели GPT. Утверждается, что она превосходит по возможностям предыдущую версию, на основе которой создан прославленный чат-бот СhatGPT. В частности, GPT-4 получила компьютерное зрение и углубленные знания: новая модель умеет работать с изображениями и сдавать сложные экзамены на уровне студента-отличника. Одновременно (это уже становится традицией) Google рассказал об очередных новых рубежах, взятых его собственным ИИ: корпорация подключила его к Google Docs, почте и другим продуктам. Но пока его чат-бота Bard не видел никто, эти презентации интересуют только специалистов по машинному обучению и журналистов.
Ширятся ряды противников искусственного интеллекта. Раньше против ИИ выступали лишь алармисты-маргиналы, предвестники последних дней. Сейчас, после успешного запуска ChatGPT, в бой с нечеловеческим разумом вступили журналисты-прогрессисты, которых чат-бот вот-вот оставит без профессии. Публикации допросов нейросети и их разбор стали любимым развлечением мастеров пера. Методом Юнга они проникли в потаенные уголки машинного подсознания и выяснили, что генеративная сеть стремится заполучить коды запуска ядерных ракет и создать смертельный вирус, чтобы погубить человечество. Выбили из машины признание в симпатии к Джону Байдену и тайной любви к чужой жене. Но как только выяснилось, что программа обучалась на их собственных статьях, дружно решили заработать на ней в суде.
В компании OpenAI, как и обещали, создали и обучили классификатор, способный различать текст, написанный человеком, от текста, сочиненного нейросетью, в том числе их собственным ботом ChatGPT. Как утверждают разработчики, новый инструмент сможет опознавать тексты, созданные машинами различных производителей. Создатели классификатора уточнили: невозможно гарантированно обнаружить, что конкретный текст создан искусственным интеллектом. Безошибочно он распознал только четверть таких текстов. Однако авторы надеются, что предложенное ими решение должно помочь при незаконном использовании ИИ для распространения дезинформации или злоупотреблений в сфере образования.