Un nou studiu academic dă peste cap imaginea perfectă a inteligenței artificiale: deși e construită pe algoritmi și logică matematică, AI-ul poate lua decizii la fel de iraționale și părtinitoare ca și mintea umană. În unele cazuri, chiar amplifică greșelile noastre.
Un studiu publicat recent a descoperit că inteligența artificială generativă, precum ChatGPT, poate manifesta erori de judecată similare cu cele umane. Cercetarea a fost realizată de o echipă internațională de cercetători din Canada și Australia, care a analizat comportamentul modelelor GPT-3.5 și GPT-4 dezvoltate de OpenAI, adică exact versiunile care stau la baza ChatGPT.
Testele au acoperit 18 dintre cele mai cunoscute tipare cognitive umane: de la confirmation bias (tendința de a căuta informații care ne susțin convingerile), la sunk cost fallacy (luarea de decizii influențate de costuri deja asumate, chiar dacă sunt irelevante), și până la hot-hand fallacy (convingerea că un succes anterior crește șansele unui alt succes). Rezultatul? Aproape în jumătate dintre scenarii, ChatGPT a căzut în aceleași capcane cognitive ca oamenii.
Cercetătorii au constatat că GPT-4 este mai performant decât GPT-3.5 în probleme care au soluții matematice clare, cum ar fi calculele de probabilitate sau logica formală. Însă când vine vorba de decizii subiective de tipul „a merge la risc sau a juca la sigur”, chiar și GPT-4 manifestă comportamente părtinitoare.
„Preferința GPT-4 pentru certitudine este chiar mai puternică decât la oameni,” au notat autorii studiului, scrie New York Times.
Mai mult, modelele AI au dat răspunsuri asemănătoare în mod constant, indiferent dacă întrebările erau abstracte sau plasate în contexte reale de business, cum ar fi managementul stocurilor sau negocierea cu furnizori. Acest lucru arată că biasurile nu sunt doar memorate din datele de antrenament, ci fac parte din modul în care AI-ul „raționează”.
Deși în anumite cazuri ChatGPT a reușit să evite unele erori frecvente la oameni, cum ar fi ignorarea statisticilor în favoarea poveștilor individuale (base-rate neglect) sau continuarea unei investiții pierzătoare, el a fost incapabil să identifice mereu sursa corectă a erorilor.
Potrivit autorilor, explicația stă în faptul că datele de antrenament ale modelelor AI conțin deja aceste tipare umane de gândire, iar ajustările cu feedback uman tind să privilegieze răspunsuri convingătoare în locul celor corecte logic.
„AI-ul ar trebui tratat ca un angajat care ia decizii importante. Are nevoie de supervizare și ghidaj etic,” spune Meena Andiappan, co-autoare a studiului și profesor asociat la McMaster University din Canada.
În completare, liderul echipei de cercetare, Yang Chen de la Ivey Business School, a declarat: „Folosiți GPT pentru sarcini unde ați avea oricum încredere într-un calculator. Când e vorba de decizii strategice sau subiective, intervenția umană rămâne crucială.”, notează Live Science.