Prima pagină » Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Avansarea continuă a tehnologiilor de inteligență artificială face ca modelele devin tot mai sofisticate și capabile să genereze conținut complex și variat. Totuși, această evoluție aduce și provocări, printre care se numără fenomenul cunoscut sub denumirea de „halucinație” a acestor modele. În esență, modelele de AI „halucinează” atunci când produc informații false, inexacte sau imaginare, chiar și atunci când sunt programate să ofere răspunsuri precise. Pe măsură ce aceste sisteme devin mai avansate, capacitatea lor de a „imagina” sau de a inventa detalii crește, ceea ce ridică întrebări importante despre fiabilitatea și limitele lor în aplicarea practică.

Modelul de raționament al OpenAI: mai inteligent, dar mai predispus la erori

Cercetările recente ale OpenAI arată că cele mai noi modele de raționament, o3 și o4-mini, „halucinează” în proporție de 33%, respectiv 48%, conform benchmark-ului PersonQA. Aceste cifre sunt mai mult decât duble față de modelul anterior o1. Deși o3 oferă răspunsuri mai precise, această performanță vine cu prețul unei creșteri a erorilor și informațiilor fabricate.

Această situație ridică un semnal de alarmă privind acuratețea și încrederea în modelele mari de limbaj (LLM), folosite în chatbot-uri și alte aplicații AI. Eleanor Watson, inginer în etica AI și membră IEEE, avertizează că „atunci când un sistem oferă informații inventate — cum ar fi fapte, citate sau evenimente — cu aceeași fluență și coerență ca și conținutul corect, riscă să inducă în eroare utilizatorii într-un mod subtil, dar cu consecințe serioase.”

De ce „halucinează” inteligența artificială? Creativitatea necesită o doză de imaginație

La baza modelelor de raționament stă capacitatea de a descompune probleme complexe în componente mai mici și de a găsi soluții, asemănător modului în care gândesc oamenii. Spre deosebire de modelele care oferă răspunsuri bazate strict pe probabilități statistice, aceste modele dezvoltă strategii pentru rezolvarea problemelor, scrie Live Science.

Pentru a genera soluții creative și inedite, AI trebuie să „halucineze” — adică să creeze informații noi, nu doar să repete datele din setul de antrenament. Sohrob Kazerounian, cercetător în AI la Vectra AI, explică:

„Halucinația este o caracteristică, nu o eroare a AI. Tot ce produce un model de limbaj este o halucinație, doar că unele dintre ele sunt adevărate. Dacă AI ar reproduce doar exact ce a învățat, ar fi doar o mare căutare în baza de date.”

Astfel, fără această capacitate de „imaginație”, AI nu ar putea crea conținut original, cum ar fi versuri pentru un album conceptual sau coduri noi, ci doar ar reproduce ce există deja.

Riscurile halucinațiilor: când creativitatea devine periculoasă

Problema apare când aceste halucinații nu sunt corecte și sunt luate drept adevăr, mai ales în domenii unde precizia este vitală — medicină, drept, finanțe. Eleanor Watson avertizează că, deși modelele avansate pot reduce greșelile evidente, halucinațiile subtile persistă și pot submina încrederea în AI, provocând daune reale atunci când informațiile neconfirmate sunt folosite în decizii importante.

Pe măsură ce AI devine mai sofisticată, erorile devin mai greu de depistat, fiind integrate în narațiuni plauzibile și raționamente coerente. Astfel, utilizatorii pot fi păcăliți să accepte ca adevărate informații false, iar problema se mută de la identificarea greșelilor evidente la detectarea distorsiunilor subtile.

De ce modelele mai avansate halucinează mai mult?

Contrar așteptărilor, noile modele de raționament par să halucineze mai frecvent decât predecesoarele lor, iar motivele nu sunt încă pe deplin înțelese. Kazerounian subliniază că lipsa unei înțelegeri clare a modului în care modelele generează răspunsuri complică și mai mult problema.

Această necunoaștere amintește de modul în care încă nu înțelegem pe deplin funcționarea creierului uman, deși avem multe informații despre el.

Lipsa transparenței în deciziile AI

Dario Amodei, CEO al companiei Anthropic, a evidențiat într-un eseu recent că nu știm exact de ce AI-ul alege anumite cuvinte sau face anumite greșeli, chiar și atunci când rezultatele par corecte în majoritatea cazurilor. Această lipsă de transparență face dificilă diagnosticarea și corectarea halucinațiilor.

Halucinațiile AI – o problemă reală și frecventă

Kazerounian menționează că nu există o metodă universală și verificabilă prin care un model de limbaj să răspundă corect la toate întrebările bazate pe un anumit set de date. Exemplele de referințe inventate, chatbot-uri care creează politici fictive ale companiilor și alte erori similare sunt din ce în ce mai comune.

Cum putem limita halucinațiile?

Deși eliminarea completă a halucinațiilor pare dificilă, există strategii pentru a le reduce. Eleanor Watson recomandă „generarea augmentată cu recuperare” (retrieval-augmented generation), care ancorează răspunsurile AI în surse externe verificate, sporind astfel acuratețea informațiilor.

O altă metodă este introducerea unei structuri în procesul de raționament al modelului, prin care acesta să-și verifice propriile răspunsuri, să compare perspective diferite și să urmeze pași logici, reducând speculațiile necontrolate.

De asemenea, modelele pot fi antrenate să recunoască incertitudinea și să semnaleze când nu sunt sigure, sau să ceară intervenția umană în situații delicate.

O privire realistă asupra viitorului AI

Având în vedere că halucinațiile sunt probabil inevitabile, Kazerounian concluzionează că informațiile generate de AI trebuie tratate cu același scepticism cu care evaluăm afirmațiile oamenilor. În acest fel, putem folosi inteligența artificială ca un instrument puternic, dar cu precauție și discernământ.

Alte articole importante
ANALIZĂ
Adevărul din spatele mitului transferului profitului. De ce multinaționalele preferă să rămână și să plătească taxe aici
Adevărul din spatele mitului transferului profitului. De ce multinaționalele preferă să rămână și să plătească taxe aici
Discuțiile privind transferul profitului companiilor străine din România revin periodic în atenția publicului. Consultantul fiscal Ruxandra Jianu a declarat pentru publicația Puterea că ideea conform căreia marile corporații mută profitul în țările de origine este, în mare parte, un mit. Ea a explicat că diferențele dintre regimurile de impozitare din Europa fac improbabil un asemenea […]
ANALIZĂ
De ce nu ne putem opri din cumpărături de Black Friday: trucurile psihologice care ne fac să cheltuim fără măsură
De ce nu ne putem opri din cumpărături de Black Friday: trucurile psihologice care ne fac să cheltuim fără măsură
Black Friday, cel mai mare eveniment global de shopping, nu este doar o sărbătoare a reducerilor, ci și un experiment psihologic în masă. Comercianții știu exact cum să ne manipuleze emoțiile, cum să ne grăbească deciziile și cum să transforme cumpărăturile într-un impuls aproape imposibil de controlat. Potrivit unui studiu publicat în Psychology Today, marketingul […]
Prima companie „complet anti-woke” din Silicon Valley. CEO-ul Palantir laudă meritocrația, susține „cultura tribală” și atacă corectitudinea politică
Companii
Prima companie „complet anti-woke” din Silicon Valley. CEO-ul Palantir laudă meritocrația, susține „cultura tribală” și atacă corectitudinea politică
Palantir Technologies, compania americană fondată de Peter Thiel și cunoscută pentru colaborările sale cu armata SUA și agențiile de informații, s-a autoproclamat prima corporație Big Tech „complet anti-woke”. CEO-ul Alex Karp a făcut anunțul în timpul unei conferințe cu investitorii. El a subliniat că succesul firmei se datorează meritocrației, disciplinei și refuzului de a adopta […]
Ţara care cheltuie cel mai mult pentru Jocurile Olimpice de Iarnă 2026
Ţara care cheltuie cel mai mult pentru Jocurile Olimpice de Iarnă 2026
Italia se pregătește de o explozie turistică în februarie 2026, când Milano și Cortina vor găzdui Jocurile Olimpice de Iarnă. Este unul dintre cele mai așteptate evenimente sportive ale deceniului. Cu mai puțin de 100 de zile rămase până la deschidere, biletele s-au vândut deja într-o proporție impresionantă. Mii de turiști străini au început să-și […]
Companiile tehnologice mizează totul pe AI: 380 miliarde $ în 2025
Companii
Companiile tehnologice mizează totul pe AI: 380 miliarde $ în 2025
Marile companii tehnologice Alphabet, Meta, Microsoft și Amazon au transmis un mesaj comun la finalul sezonului de raportări financiare. Potrivit acestora, cheltuielile în domeniul inteligenței artificiale vor continua să crească semnificativ și anunță că, în 2025, totalul investițiilor combinate în acest sector vor depăși 380 de miliarde de dolari. Companiile tehnologice pompează peste 380 miliarde […]
Nexperia suspendă livrările de waferi esențiali în producția de cipuri
Companii
Nexperia suspendă livrările de waferi esențiali în producția de cipuri
Compania olandeză Nexperia a anunțat suspendarea livrărilor unui material esențial pentru producția de cipuri. Decizia ar putea afecta lanțurile de aprovizionare din industria semiconductorilor și ridică semne de întrebare privind stabilitatea pieței globale, deja marcată de tensiuni geopolitice și deficit de materii prime critice. Agitație pe piața cipurilor: Nexperia suspendă livrările unui material esențial pentru cipuri […]