Штучний інтелект може бути самовпевненим і упередженим, як і люди, — вчені

Учені з’ясували, що ШІ іноді може ухвалювати рішення так само ірраціонально, як і люди.

Іноді ШІ припускається таких самих помилок, як і люди / фото — ua.depositphotos.com

Люди і моделі штучного інтелекту «розмірковують» абсолютно по-різному. Проте нове дослідження показало, що існує певна схожість у мисленні, пише Live Science.

Учені з’ясували, що ШІ іноді може ухвалювати рішення так само ірраціонально, як і люди. У своєму дослідженні вчені вирішили перевірити поведінку моделей OpenAI GPT-3.5 і GPT-4 за 18 добре відомими в психології людини когнітивними упередженнями.

Зазначається, що майже в половині сценаріїв ШІ демонстрував багато з найпоширеніших людських упереджень під час ухвалення рішень. Вони виявили, що нейромережі не застраховані від людських помилок.

Відео дня

«Менеджери отримають найбільшу вигоду, якщо використовуватимуть ці інструменти для вирішення проблем, які мають чітке, шаблонне рішення. Якщо ж ви використовуєте їх для ухвалення суб’єктивних рішень або рішень, заснованих на перевагах, будьте обережні», — сказав у своїй заяві провідний автор дослідження Ян Чен, доцент кафедри управління операціями в бізнес-школі Ivey.

Вчені ставили ШІ-моделям гіпотетичні запитання, взяті з традиційної психології, в контексті реального комерційного застосування в таких галузях, як управління запасами товарів або переговори з постачальниками. Вони спробували з’ясувати не тільки те, чи буде ШІ імітувати людські упередження, а й те, чи буде він робити це, коли йому ставитимуть запитання з різних сфер бізнесу.

Згідно з результатами дослідження, GPT-4 перевершив GPT-3.5 при відповіді на завдання з чіткими математичними рішеннями. Він показав менше помилок у ймовірнісних і логічних сценаріях. Проте в суб’єктивних симуляціях, таких як вибір ризикованого варіанту для отримання прибутку, чат-бот часто відображав ірраціональні переваги, які зазвичай демонструють люди.

«GPT-4 демонструє навіть сильнішу перевагу визначеності, ніж люди», — йдеться в дослідженні.

Дослідники помітили, що поведінка чат-ботів залишалася здебільшого стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи операційні бізнес-процеси. Вчені дійшли висновку, що продемонстровані упередження не просто продукт завчених прикладів, а частина того, як ШІ «міркує».

Під час дослідження GPT-4 іноді посилював помилки, схожі на людські, наголосили вчені.

Читайте також:

Штучний інтелект уперше став студентом

У Китаї створили робота зі ШІ, який поводиться як 6-річна дитина (відео)

Майже не відрізнити від людини: представлено нового робота-гуманоїда з підтримкою ChatGPT

«У завданні на упередженість підтвердження GPT-4 завжди давав упереджені відповіді. Він також продемонстрував більш виражену схильність до помилки «гарячої руки» (схильність очікувати закономірності у випадковості), ніж GPT 3.5″, — розповіли дослідники.

Науковці створили компанію, в якій працюють тільки АІ-співробітники — як пройшов експеримент

Раніше вчені з Університету Карнегі-Меллона створили фальшиву компанію TheAgentCompany, яка займається розробкою програмного забезпечення. Усі її співробітники — моделі ШІ, призначені для самостійного виконання завдань. Результати цього експерименту виявилися досить хаотичними.

У виданні поділилися, що найкраще себе показала модель Claude 3.5 Sonnet від Anthropic. Проте вона впоралася лише з 24% доручених їй завдань. Для виконання одного завдання моделі доводилося здійснювати близько 30 кроків.

Модель Gemini 2.0 Flash від Google в середньому робила 40 кроків на одне виконане завдання. Тільки 11,4% з них були виконані успішно.

Джерело

Рейтинг
( Пока оценок нет )
PRO-KYIV.in.ua