Microsoft обидно урезала ChatGPT в Bing, чтобы не позориться из-за него

ChatGPT

Microsoft ввела новые ограничения для пользователей запущенного недавно поиска Bing со встроенным чат-ботом ChatGPT. Об этом сообщается в официальном блоге компании.

Ранее мы рассказывали, что после запуска обновленного Bing со встроенным чат-ботом в сети начали массово появляться нелестные для Microsoft и ChatGPT истории общения пользователей с нейросетью. Чат-бот капризничает, огрызается на простейшие вопросы, ведет себя невоспитанно, а иногда откровенно врет.

Похоже, инженеры Microsoft придумали, как огородить себя от новых курьезов с ChatGPT. Согласно источнику, они ограничили количество запросов: теперь один пользователь может задать чат-боту не более 50 вопросов в сутки, при этом каждый сеанс общения с ИИ будет ограничен пятью сообщениями — сюда включаются как запросы человека, так и ответы нейросети.

Получается, что самая любопытная часть общения с ChatGPT более недоступна — ранее пользователи говорили, что больше всего в чат-ботах их удивляет и радует то, как ИИ умело работает с контекстом. Теперь из-за нового ограничения в 5 сообщений попробовать эту фишку больше толком не получится.

Сама Microsoft пишет, что длинные сеансы (переписки) могут запутать чат-бота и привести к странным или неправильным ответам, так как нейросеть не всегда справляется с большим количеством контекста. Стоит отметить, что в оригинальном чат-боте ChatGPT подобных ограничений до сих пор не установлено, а значит у него снова нет аналогов. 

Источник

Добавить комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.