Prima pagină » Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Avansarea continuă a tehnologiilor de inteligență artificială face ca modelele devin tot mai sofisticate și capabile să genereze conținut complex și variat. Totuși, această evoluție aduce și provocări, printre care se numără fenomenul cunoscut sub denumirea de „halucinație” a acestor modele. În esență, modelele de AI „halucinează” atunci când produc informații false, inexacte sau imaginare, chiar și atunci când sunt programate să ofere răspunsuri precise. Pe măsură ce aceste sisteme devin mai avansate, capacitatea lor de a „imagina” sau de a inventa detalii crește, ceea ce ridică întrebări importante despre fiabilitatea și limitele lor în aplicarea practică.

Modelul de raționament al OpenAI: mai inteligent, dar mai predispus la erori

Cercetările recente ale OpenAI arată că cele mai noi modele de raționament, o3 și o4-mini, „halucinează” în proporție de 33%, respectiv 48%, conform benchmark-ului PersonQA. Aceste cifre sunt mai mult decât duble față de modelul anterior o1. Deși o3 oferă răspunsuri mai precise, această performanță vine cu prețul unei creșteri a erorilor și informațiilor fabricate.

Această situație ridică un semnal de alarmă privind acuratețea și încrederea în modelele mari de limbaj (LLM), folosite în chatbot-uri și alte aplicații AI. Eleanor Watson, inginer în etica AI și membră IEEE, avertizează că „atunci când un sistem oferă informații inventate — cum ar fi fapte, citate sau evenimente — cu aceeași fluență și coerență ca și conținutul corect, riscă să inducă în eroare utilizatorii într-un mod subtil, dar cu consecințe serioase.”

De ce „halucinează” inteligența artificială? Creativitatea necesită o doză de imaginație

La baza modelelor de raționament stă capacitatea de a descompune probleme complexe în componente mai mici și de a găsi soluții, asemănător modului în care gândesc oamenii. Spre deosebire de modelele care oferă răspunsuri bazate strict pe probabilități statistice, aceste modele dezvoltă strategii pentru rezolvarea problemelor, scrie Live Science.

Pentru a genera soluții creative și inedite, AI trebuie să „halucineze” — adică să creeze informații noi, nu doar să repete datele din setul de antrenament. Sohrob Kazerounian, cercetător în AI la Vectra AI, explică:

„Halucinația este o caracteristică, nu o eroare a AI. Tot ce produce un model de limbaj este o halucinație, doar că unele dintre ele sunt adevărate. Dacă AI ar reproduce doar exact ce a învățat, ar fi doar o mare căutare în baza de date.”

Astfel, fără această capacitate de „imaginație”, AI nu ar putea crea conținut original, cum ar fi versuri pentru un album conceptual sau coduri noi, ci doar ar reproduce ce există deja.

Riscurile halucinațiilor: când creativitatea devine periculoasă

Problema apare când aceste halucinații nu sunt corecte și sunt luate drept adevăr, mai ales în domenii unde precizia este vitală — medicină, drept, finanțe. Eleanor Watson avertizează că, deși modelele avansate pot reduce greșelile evidente, halucinațiile subtile persistă și pot submina încrederea în AI, provocând daune reale atunci când informațiile neconfirmate sunt folosite în decizii importante.

Pe măsură ce AI devine mai sofisticată, erorile devin mai greu de depistat, fiind integrate în narațiuni plauzibile și raționamente coerente. Astfel, utilizatorii pot fi păcăliți să accepte ca adevărate informații false, iar problema se mută de la identificarea greșelilor evidente la detectarea distorsiunilor subtile.

De ce modelele mai avansate halucinează mai mult?

Contrar așteptărilor, noile modele de raționament par să halucineze mai frecvent decât predecesoarele lor, iar motivele nu sunt încă pe deplin înțelese. Kazerounian subliniază că lipsa unei înțelegeri clare a modului în care modelele generează răspunsuri complică și mai mult problema.

Această necunoaștere amintește de modul în care încă nu înțelegem pe deplin funcționarea creierului uman, deși avem multe informații despre el.

Lipsa transparenței în deciziile AI

Dario Amodei, CEO al companiei Anthropic, a evidențiat într-un eseu recent că nu știm exact de ce AI-ul alege anumite cuvinte sau face anumite greșeli, chiar și atunci când rezultatele par corecte în majoritatea cazurilor. Această lipsă de transparență face dificilă diagnosticarea și corectarea halucinațiilor.

Halucinațiile AI – o problemă reală și frecventă

Kazerounian menționează că nu există o metodă universală și verificabilă prin care un model de limbaj să răspundă corect la toate întrebările bazate pe un anumit set de date. Exemplele de referințe inventate, chatbot-uri care creează politici fictive ale companiilor și alte erori similare sunt din ce în ce mai comune.

Cum putem limita halucinațiile?

Deși eliminarea completă a halucinațiilor pare dificilă, există strategii pentru a le reduce. Eleanor Watson recomandă „generarea augmentată cu recuperare” (retrieval-augmented generation), care ancorează răspunsurile AI în surse externe verificate, sporind astfel acuratețea informațiilor.

O altă metodă este introducerea unei structuri în procesul de raționament al modelului, prin care acesta să-și verifice propriile răspunsuri, să compare perspective diferite și să urmeze pași logici, reducând speculațiile necontrolate.

De asemenea, modelele pot fi antrenate să recunoască incertitudinea și să semnaleze când nu sunt sigure, sau să ceară intervenția umană în situații delicate.

O privire realistă asupra viitorului AI

Având în vedere că halucinațiile sunt probabil inevitabile, Kazerounian concluzionează că informațiile generate de AI trebuie tratate cu același scepticism cu care evaluăm afirmațiile oamenilor. În acest fel, putem folosi inteligența artificială ca un instrument puternic, dar cu precauție și discernământ.

Alte articole importante
Volkswagen se reprofilează și va produce sistemul antirachetă Iron Dome
Companii
Volkswagen se reprofilează și va produce sistemul antirachetă Iron Dome
Volkswagen își schimbă strategia de producție și explorează noi domenii tehnologice, inclusiv sectorul apărării. Constructorul de automobile ia în calcul producerea sistemului antirachetă Iron Dome, ceea ce reprezintă o direcție inedită pentru compania germană. Volkswagen va produce componente pentru sistemul antirachetă Iron Dome Volkswagen se reprofilează și ia în considerare producția de componente pentru sistemul […]
Economia bate pasul pe loc în toate cele 21 de state din zona euro
Economia bate pasul pe loc în toate cele 21 de state din zona euro
Economia a stagnat în toate cele 21 de state din zona euro, semnalând o perioadă de blocaj la nivel regional. Lipsa creșterii reflectă presiuni persistente, de la inflație și costuri ridicate, până la scăderea consumului și a investițiilor. Blocaj economic în Europa: Războiul din Iran afectează toate statele din zona euro Conflictul din Orientul Mijlociu […]
ANALIZĂ
De ce redeschiderea Strâmtorii Ormuz este atât de dificilă
De ce redeschiderea Strâmtorii Ormuz este atât de dificilă
Redeschiderea Strâmtorii Ormuz este dificilă din cauza războiului, dar și a poziției strategice pe care o are între principalele țări producătoare de petrol. Blocajul canalului maritim controlat de Iran afectează nu doar aprovizionarea globală cu energie, ci și stabilitatea economică și geopolitică în regiune. Redeschiderea Strâmtorii Ormuz, între negocieri și riscuri militare: de ce nu […]
Tarom își extinde oferta pentru conexiuni transatlantice. Un singur bilet pentru New York sau Los Angeles prin parteneriat codeshare cu Condor Airlines
Companii
Tarom își extinde oferta pentru conexiuni transatlantice. Un singur bilet pentru New York sau Los Angeles prin parteneriat codeshare cu Condor Airlines
Tarom și Condor Airlines anunță lansarea unui parteneriat de tip codeshare, menit să extindă opțiunile de călătorie transatlantice pentru pasageri. Acordul le va permite clienților să acceseze mai ușor noi destinații și conexiuni, beneficiind de o rețea aeriană mai amplă și mai bine integrată. Tarom și Condor Airlines lansează un parteneriat codeshare: ce rute noi […]
ANALIZĂ
Dacă petrolul ajunge la 150 $ barilul există risc de recesiune globală
Dacă petrolul ajunge la 150 $ barilul există risc de recesiune globală
Creșterea prețului petrolului la 150 de dolari pe baril ar putea declanșa o recesiune globală, afectând economiile din întreaga lume. Impactul s-ar resimți prin scumpirea energiei, majorarea costurilor de producție și reducerea consumului. Risc de recesiune globală: Ce se va întâmpla dacă petrolul va ajunge la 150 $ barilul Avertismentul a fost lansat de Larry […]
Germania va investi 10 miliarde € în cel mai mare proiect spațial
Germania va investi 10 miliarde € în cel mai mare proiect spațial
Germania va investi 10 miliarde € în dezvoltarea unei rețele de 100 de sateliți, care vor consolida comunicațiile și securitatea spațială. Proiectul urmărește atât modernizarea infrastructurii tehnologice, cât și creșterea independenței strategice în domeniul spațial. Germania va investi 10 miliarde de euro într-o rețea de sateliți destinați exclusiv comunicațiilor militare Germania intenționează să investească 10 […]