ChatGPT продолжает деградировать. Ученые Стэнфордского университета и Калифорнийского университета в Беркли пришли к выводу, что искусственный интеллект теперь хуже выполняет некоторые элементарные математические операции. Ученые назвали этот феномен - "дрейф". ChatGPT, говорят эксперты, пытается усовершенствовать одну часть сложной модели ИИ, что приводит к ухудшению работы других ее областей.
Фото: osvitanova.com.ua
Вывод о деградации дало сравнение двух версий - ученые работали с бесплатной и доступной для всех версией 3.5 и 4.0, которая доступна по подписке.
Чат-бот должен был определить, какое число является простым (натуральное число, которое делится только на единицу и на себя). Человек не может оценить в уме, является ли число простым, если оно довольно большое, а компьютер может, проверив его делимость на 2, 3, 5 и т. д. Основу теста составила выборка из 1000 чисел.
Если в марте ChatGPT - 4 давал правильные ответы в 84 % случаев, что уже плохой результат для компьютера, то в июне результате ухудшился до 51 %. При этом результаты ChatGPT - 3.5 еще хуже.
Ученые считают, что когда выпускаются новые версии моделей, приоритетом является "ум" новых моделей.
Кроме математических задач, ученые предложили чат-ботам ответить на 1500 вопросов. В марте ChatGPT-4 ответил на 98% вопросов, а в июне - на 23 %, при этом ответы были короткими.
Отметим, в июле ученые из Стэнфордского университета опубликовали исследование, в котором утверждалось, что возможности GPT-4 в генерации кода также пострадали. Мартовская версия GPT-4 успешно справлялась с 52% таких задач, в июньском варианте производительность упала до 10%.
Эксперты считают, что ChatGPT может глупеть по двумя причинам - слишком много ограничений, введенных разработчиками из соображений безопасности и политкорректности или слишком частое общение с людьми.
Ранее стало известно о том, что google научился писать стихи в духе известных поэтов.
Также издание Postfactum сообщало о том, что chatGPT стал доступен в Украине.
Топ новости