Prima pagină » Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Avansarea continuă a tehnologiilor de inteligență artificială face ca modelele devin tot mai sofisticate și capabile să genereze conținut complex și variat. Totuși, această evoluție aduce și provocări, printre care se numără fenomenul cunoscut sub denumirea de „halucinație” a acestor modele. În esență, modelele de AI „halucinează” atunci când produc informații false, inexacte sau imaginare, chiar și atunci când sunt programate să ofere răspunsuri precise. Pe măsură ce aceste sisteme devin mai avansate, capacitatea lor de a „imagina” sau de a inventa detalii crește, ceea ce ridică întrebări importante despre fiabilitatea și limitele lor în aplicarea practică.

Modelul de raționament al OpenAI: mai inteligent, dar mai predispus la erori

Cercetările recente ale OpenAI arată că cele mai noi modele de raționament, o3 și o4-mini, „halucinează” în proporție de 33%, respectiv 48%, conform benchmark-ului PersonQA. Aceste cifre sunt mai mult decât duble față de modelul anterior o1. Deși o3 oferă răspunsuri mai precise, această performanță vine cu prețul unei creșteri a erorilor și informațiilor fabricate.

Această situație ridică un semnal de alarmă privind acuratețea și încrederea în modelele mari de limbaj (LLM), folosite în chatbot-uri și alte aplicații AI. Eleanor Watson, inginer în etica AI și membră IEEE, avertizează că „atunci când un sistem oferă informații inventate — cum ar fi fapte, citate sau evenimente — cu aceeași fluență și coerență ca și conținutul corect, riscă să inducă în eroare utilizatorii într-un mod subtil, dar cu consecințe serioase.”

De ce „halucinează” inteligența artificială? Creativitatea necesită o doză de imaginație

La baza modelelor de raționament stă capacitatea de a descompune probleme complexe în componente mai mici și de a găsi soluții, asemănător modului în care gândesc oamenii. Spre deosebire de modelele care oferă răspunsuri bazate strict pe probabilități statistice, aceste modele dezvoltă strategii pentru rezolvarea problemelor, scrie Live Science.

Pentru a genera soluții creative și inedite, AI trebuie să „halucineze” — adică să creeze informații noi, nu doar să repete datele din setul de antrenament. Sohrob Kazerounian, cercetător în AI la Vectra AI, explică:

„Halucinația este o caracteristică, nu o eroare a AI. Tot ce produce un model de limbaj este o halucinație, doar că unele dintre ele sunt adevărate. Dacă AI ar reproduce doar exact ce a învățat, ar fi doar o mare căutare în baza de date.”

Astfel, fără această capacitate de „imaginație”, AI nu ar putea crea conținut original, cum ar fi versuri pentru un album conceptual sau coduri noi, ci doar ar reproduce ce există deja.

Riscurile halucinațiilor: când creativitatea devine periculoasă

Problema apare când aceste halucinații nu sunt corecte și sunt luate drept adevăr, mai ales în domenii unde precizia este vitală — medicină, drept, finanțe. Eleanor Watson avertizează că, deși modelele avansate pot reduce greșelile evidente, halucinațiile subtile persistă și pot submina încrederea în AI, provocând daune reale atunci când informațiile neconfirmate sunt folosite în decizii importante.

Pe măsură ce AI devine mai sofisticată, erorile devin mai greu de depistat, fiind integrate în narațiuni plauzibile și raționamente coerente. Astfel, utilizatorii pot fi păcăliți să accepte ca adevărate informații false, iar problema se mută de la identificarea greșelilor evidente la detectarea distorsiunilor subtile.

De ce modelele mai avansate halucinează mai mult?

Contrar așteptărilor, noile modele de raționament par să halucineze mai frecvent decât predecesoarele lor, iar motivele nu sunt încă pe deplin înțelese. Kazerounian subliniază că lipsa unei înțelegeri clare a modului în care modelele generează răspunsuri complică și mai mult problema.

Această necunoaștere amintește de modul în care încă nu înțelegem pe deplin funcționarea creierului uman, deși avem multe informații despre el.

Lipsa transparenței în deciziile AI

Dario Amodei, CEO al companiei Anthropic, a evidențiat într-un eseu recent că nu știm exact de ce AI-ul alege anumite cuvinte sau face anumite greșeli, chiar și atunci când rezultatele par corecte în majoritatea cazurilor. Această lipsă de transparență face dificilă diagnosticarea și corectarea halucinațiilor.

Halucinațiile AI – o problemă reală și frecventă

Kazerounian menționează că nu există o metodă universală și verificabilă prin care un model de limbaj să răspundă corect la toate întrebările bazate pe un anumit set de date. Exemplele de referințe inventate, chatbot-uri care creează politici fictive ale companiilor și alte erori similare sunt din ce în ce mai comune.

Cum putem limita halucinațiile?

Deși eliminarea completă a halucinațiilor pare dificilă, există strategii pentru a le reduce. Eleanor Watson recomandă „generarea augmentată cu recuperare” (retrieval-augmented generation), care ancorează răspunsurile AI în surse externe verificate, sporind astfel acuratețea informațiilor.

O altă metodă este introducerea unei structuri în procesul de raționament al modelului, prin care acesta să-și verifice propriile răspunsuri, să compare perspective diferite și să urmeze pași logici, reducând speculațiile necontrolate.

De asemenea, modelele pot fi antrenate să recunoască incertitudinea și să semnaleze când nu sunt sigure, sau să ceară intervenția umană în situații delicate.

O privire realistă asupra viitorului AI

Având în vedere că halucinațiile sunt probabil inevitabile, Kazerounian concluzionează că informațiile generate de AI trebuie tratate cu același scepticism cu care evaluăm afirmațiile oamenilor. În acest fel, putem folosi inteligența artificială ca un instrument puternic, dar cu precauție și discernământ.

Alte articole importante
Robotul care a încercat să danseze și a eșuat spectaculos. Spectacolul care s-a transformat în haos mecanic
Robotul care a încercat să danseze și a eșuat spectaculos. Spectacolul care s-a transformat în haos mecanic
Uneori, dansul pe ring poate deveni o scenă a rușinii, mai ales când este imortalizat în plină zi, sub lumina nemiloasă a telefoanelor mobile. Oricine a pășit vreodată într-un club sau pe o scenă improvizată știe că o mișcare greșită poate deveni virală în doar câteva minute. Dar ce se întâmplă când nu un om, […]
Cercetătorii chinezi au creat un tip de beton capabil să oprească aeronavele, imitând efectul unei perne de aer
Cercetătorii chinezi au creat un tip de beton capabil să oprească aeronavele, imitând efectul unei perne de aer
Cercetătorii chinezi au creat un tip de beton ultraușor, supranumit „betonul bezea”, capabil să oprească în siguranță avioane de sute de tone în timpul aterizărilor de urgență. Un nou standard în siguranța aeriană: cercetătorii chinezi au creat „perna de aer” din beton O echipă de cercetători din China a adus o schimbare radicală în ceea […]
Joburile cel mai puțin amenințate de inteligența artificială. Topul ocupațiilor rezistente în fața valului AI
Joburile cel mai puțin amenințate de inteligența artificială. Topul ocupațiilor rezistente în fața valului AI
Inteligența artificială continuă să transforme radical mediile de lucru, afectând din ce în ce mai multe domenii profesionale. Totuși, nu toate joburile se confruntă cu același grad de risc în fața automatizării. O analiză recentă realizată de Esquimoz și publicată de Visual Capitalist, în baza unor criterii precum interacțiunea cu publicul, complexitatea sarcinilor și necesitatea […]
China lansează cel mai amplu program de sprijin pentru copii din istoria sa, pe fondul crizei demografice
China lansează cel mai amplu program de sprijin pentru copii din istoria sa, pe fondul crizei demografice
China face un pas istoric în fața unei crize demografice fără precedent: guvernul de la Beijing anunță introducerea unei alocații anuale de aproximativ 420 de euro pentru fiecare copil, pe o perioadă de trei ani, cu scopul de a stimula natalitatea și de a contracara scăderea accelerată a populației. Măsura vine în contextul în care […]
Forțele Navale Române investesc 1,7 miliarde de lei în drone aeriene, maritime și submersibile
Forțele Navale Române investesc 1,7 miliarde de lei în drone aeriene, maritime și submersibile
Forțele Navale Române își modernizează capacitățile militare prin achiziționarea unor sisteme de drone aeriene, maritime și submersibile în valoare de 1,7 miliarde de lei. Noile echipamente vor spori capacitățile de supraveghere, de recunoaștere și de intervenție ale armatei în zona Mării Negre. Achiziții strategice: Forțele Navale își modernizează flota cu sisteme de drone de ultimă […]
România și alte 17 țări din UE vor împrumuturi pentru apărare de 150 miliarde de euro
România și alte 17 țări din UE vor împrumuturi pentru apărare de 150 miliarde de euro
România, alături de alte 17 state membre ale UE, și-a exprimat interesul pentru obținerea unor împrumuturi destinate industriei de apărare. Inițiativa face parte din programul SAFE, un instrument european prin care pot fi mobilizate până la 150 de miliarde de euro pentru consolidarea apărării la nivelul Uniunii Europene. UE: 18 state membre, inclusiv România, solicită […]