OpenAI выпустила GPT-4 – нейросеть понимает не только текст, но и изображения

OpenAI анонсировала GPT-4 – новую языковую модель для распознавания изображений и текста, которая взаимодействует в диалоговом режиме. Формат диалога позволяет ChatGPT отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять некорректные запросы. Новая версия нейросети будет использоваться в таких приложениях, как ChatGPT и новый Bing.

ChatGPT

GPT-4 может генерировать текст и принимать входные изображения и текст. Тогда как предыдущая версия GPT-3.5 принимал только текст. По утверждению производителя, хотя GPT-4 может быть не такой способной, как люди, во многих реальных сценариях, она демонстрирует производительность на уровне человека в различных профессиональных и академических тестах.

GPT-4GPT-4

Так новая версия нейросети сдала смоделированный адвокатский экзамен лучше 90% людей, экзамен SAT Reading test – лучше, чем 93% людей, а экзамен SAT по математике – лучше, чем 89% людей.

GPT-4

Новая модель нейросети прошла шестимесячный курс обучения технике безопасности и во время внутренних тестов она на 82% реже отвечала на запросы о запрещенном контенте, а также на 40% чаще давала фактические ответы, чем GPT-3.5. Как заявляет OpenAI, в обычном разговоре разница между GPT-3.5 и GPT-4 может быть практически незаметной. Но в достаточно сложных задачах новая модель более надёжна, креативна и способна обрабатывать гораздо более тонкие инструкции, чем предыдущая модель.

OpenAI уже сотрудничает с рядом компаний для интеграции GPT-4 в их продукты, включая Duolingo, Stripe и Khan Academy. На данный момент GPT-4 доступна широкой публике через ChatGPT+, ежемесячную подписку OpenAI на ChatGPT за $20, а также используется для чат-бота Microsoft Bing. Также новая модель будет доступна через API для разработчиков.

Источник