Avansarea continuă a tehnologiilor de inteligență artificială face ca modelele devin tot mai sofisticate și capabile să genereze conținut complex și variat. Totuși, această evoluție aduce și provocări, printre care se numără fenomenul cunoscut sub denumirea de „halucinație” a acestor modele. În esență, modelele de AI „halucinează” atunci când produc informații false, inexacte sau imaginare, chiar și atunci când sunt programate să ofere răspunsuri precise. Pe măsură ce aceste sisteme devin mai avansate, capacitatea lor de a „imagina” sau de a inventa detalii crește, ceea ce ridică întrebări importante despre fiabilitatea și limitele lor în aplicarea practică.
Cercetările recente ale OpenAI arată că cele mai noi modele de raționament, o3 și o4-mini, „halucinează” în proporție de 33%, respectiv 48%, conform benchmark-ului PersonQA. Aceste cifre sunt mai mult decât duble față de modelul anterior o1. Deși o3 oferă răspunsuri mai precise, această performanță vine cu prețul unei creșteri a erorilor și informațiilor fabricate.
Această situație ridică un semnal de alarmă privind acuratețea și încrederea în modelele mari de limbaj (LLM), folosite în chatbot-uri și alte aplicații AI. Eleanor Watson, inginer în etica AI și membră IEEE, avertizează că „atunci când un sistem oferă informații inventate — cum ar fi fapte, citate sau evenimente — cu aceeași fluență și coerență ca și conținutul corect, riscă să inducă în eroare utilizatorii într-un mod subtil, dar cu consecințe serioase.”
La baza modelelor de raționament stă capacitatea de a descompune probleme complexe în componente mai mici și de a găsi soluții, asemănător modului în care gândesc oamenii. Spre deosebire de modelele care oferă răspunsuri bazate strict pe probabilități statistice, aceste modele dezvoltă strategii pentru rezolvarea problemelor, scrie Live Science.
Pentru a genera soluții creative și inedite, AI trebuie să „halucineze” — adică să creeze informații noi, nu doar să repete datele din setul de antrenament. Sohrob Kazerounian, cercetător în AI la Vectra AI, explică:
„Halucinația este o caracteristică, nu o eroare a AI. Tot ce produce un model de limbaj este o halucinație, doar că unele dintre ele sunt adevărate. Dacă AI ar reproduce doar exact ce a învățat, ar fi doar o mare căutare în baza de date.”
Astfel, fără această capacitate de „imaginație”, AI nu ar putea crea conținut original, cum ar fi versuri pentru un album conceptual sau coduri noi, ci doar ar reproduce ce există deja.
Problema apare când aceste halucinații nu sunt corecte și sunt luate drept adevăr, mai ales în domenii unde precizia este vitală — medicină, drept, finanțe. Eleanor Watson avertizează că, deși modelele avansate pot reduce greșelile evidente, halucinațiile subtile persistă și pot submina încrederea în AI, provocând daune reale atunci când informațiile neconfirmate sunt folosite în decizii importante.
Pe măsură ce AI devine mai sofisticată, erorile devin mai greu de depistat, fiind integrate în narațiuni plauzibile și raționamente coerente. Astfel, utilizatorii pot fi păcăliți să accepte ca adevărate informații false, iar problema se mută de la identificarea greșelilor evidente la detectarea distorsiunilor subtile.
Contrar așteptărilor, noile modele de raționament par să halucineze mai frecvent decât predecesoarele lor, iar motivele nu sunt încă pe deplin înțelese. Kazerounian subliniază că lipsa unei înțelegeri clare a modului în care modelele generează răspunsuri complică și mai mult problema.
Această necunoaștere amintește de modul în care încă nu înțelegem pe deplin funcționarea creierului uman, deși avem multe informații despre el.
Dario Amodei, CEO al companiei Anthropic, a evidențiat într-un eseu recent că nu știm exact de ce AI-ul alege anumite cuvinte sau face anumite greșeli, chiar și atunci când rezultatele par corecte în majoritatea cazurilor. Această lipsă de transparență face dificilă diagnosticarea și corectarea halucinațiilor.
Kazerounian menționează că nu există o metodă universală și verificabilă prin care un model de limbaj să răspundă corect la toate întrebările bazate pe un anumit set de date. Exemplele de referințe inventate, chatbot-uri care creează politici fictive ale companiilor și alte erori similare sunt din ce în ce mai comune.
Deși eliminarea completă a halucinațiilor pare dificilă, există strategii pentru a le reduce. Eleanor Watson recomandă „generarea augmentată cu recuperare” (retrieval-augmented generation), care ancorează răspunsurile AI în surse externe verificate, sporind astfel acuratețea informațiilor.
O altă metodă este introducerea unei structuri în procesul de raționament al modelului, prin care acesta să-și verifice propriile răspunsuri, să compare perspective diferite și să urmeze pași logici, reducând speculațiile necontrolate.
De asemenea, modelele pot fi antrenate să recunoască incertitudinea și să semnaleze când nu sunt sigure, sau să ceară intervenția umană în situații delicate.
Având în vedere că halucinațiile sunt probabil inevitabile, Kazerounian concluzionează că informațiile generate de AI trebuie tratate cu același scepticism cu care evaluăm afirmațiile oamenilor. În acest fel, putem folosi inteligența artificială ca un instrument puternic, dar cu precauție și discernământ.