Prima pagină » Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Modelele de inteligență artificială „halucinează” din ce în ce mai mult pe măsură ce devin mai avansate

Avansarea continuă a tehnologiilor de inteligență artificială face ca modelele devin tot mai sofisticate și capabile să genereze conținut complex și variat. Totuși, această evoluție aduce și provocări, printre care se numără fenomenul cunoscut sub denumirea de „halucinație” a acestor modele. În esență, modelele de AI „halucinează” atunci când produc informații false, inexacte sau imaginare, chiar și atunci când sunt programate să ofere răspunsuri precise. Pe măsură ce aceste sisteme devin mai avansate, capacitatea lor de a „imagina” sau de a inventa detalii crește, ceea ce ridică întrebări importante despre fiabilitatea și limitele lor în aplicarea practică.

Modelul de raționament al OpenAI: mai inteligent, dar mai predispus la erori

Cercetările recente ale OpenAI arată că cele mai noi modele de raționament, o3 și o4-mini, „halucinează” în proporție de 33%, respectiv 48%, conform benchmark-ului PersonQA. Aceste cifre sunt mai mult decât duble față de modelul anterior o1. Deși o3 oferă răspunsuri mai precise, această performanță vine cu prețul unei creșteri a erorilor și informațiilor fabricate.

Această situație ridică un semnal de alarmă privind acuratețea și încrederea în modelele mari de limbaj (LLM), folosite în chatbot-uri și alte aplicații AI. Eleanor Watson, inginer în etica AI și membră IEEE, avertizează că „atunci când un sistem oferă informații inventate — cum ar fi fapte, citate sau evenimente — cu aceeași fluență și coerență ca și conținutul corect, riscă să inducă în eroare utilizatorii într-un mod subtil, dar cu consecințe serioase.”

De ce „halucinează” inteligența artificială? Creativitatea necesită o doză de imaginație

La baza modelelor de raționament stă capacitatea de a descompune probleme complexe în componente mai mici și de a găsi soluții, asemănător modului în care gândesc oamenii. Spre deosebire de modelele care oferă răspunsuri bazate strict pe probabilități statistice, aceste modele dezvoltă strategii pentru rezolvarea problemelor, scrie Live Science.

Pentru a genera soluții creative și inedite, AI trebuie să „halucineze” — adică să creeze informații noi, nu doar să repete datele din setul de antrenament. Sohrob Kazerounian, cercetător în AI la Vectra AI, explică:

„Halucinația este o caracteristică, nu o eroare a AI. Tot ce produce un model de limbaj este o halucinație, doar că unele dintre ele sunt adevărate. Dacă AI ar reproduce doar exact ce a învățat, ar fi doar o mare căutare în baza de date.”

Astfel, fără această capacitate de „imaginație”, AI nu ar putea crea conținut original, cum ar fi versuri pentru un album conceptual sau coduri noi, ci doar ar reproduce ce există deja.

Riscurile halucinațiilor: când creativitatea devine periculoasă

Problema apare când aceste halucinații nu sunt corecte și sunt luate drept adevăr, mai ales în domenii unde precizia este vitală — medicină, drept, finanțe. Eleanor Watson avertizează că, deși modelele avansate pot reduce greșelile evidente, halucinațiile subtile persistă și pot submina încrederea în AI, provocând daune reale atunci când informațiile neconfirmate sunt folosite în decizii importante.

Pe măsură ce AI devine mai sofisticată, erorile devin mai greu de depistat, fiind integrate în narațiuni plauzibile și raționamente coerente. Astfel, utilizatorii pot fi păcăliți să accepte ca adevărate informații false, iar problema se mută de la identificarea greșelilor evidente la detectarea distorsiunilor subtile.

De ce modelele mai avansate halucinează mai mult?

Contrar așteptărilor, noile modele de raționament par să halucineze mai frecvent decât predecesoarele lor, iar motivele nu sunt încă pe deplin înțelese. Kazerounian subliniază că lipsa unei înțelegeri clare a modului în care modelele generează răspunsuri complică și mai mult problema.

Această necunoaștere amintește de modul în care încă nu înțelegem pe deplin funcționarea creierului uman, deși avem multe informații despre el.

Lipsa transparenței în deciziile AI

Dario Amodei, CEO al companiei Anthropic, a evidențiat într-un eseu recent că nu știm exact de ce AI-ul alege anumite cuvinte sau face anumite greșeli, chiar și atunci când rezultatele par corecte în majoritatea cazurilor. Această lipsă de transparență face dificilă diagnosticarea și corectarea halucinațiilor.

Halucinațiile AI – o problemă reală și frecventă

Kazerounian menționează că nu există o metodă universală și verificabilă prin care un model de limbaj să răspundă corect la toate întrebările bazate pe un anumit set de date. Exemplele de referințe inventate, chatbot-uri care creează politici fictive ale companiilor și alte erori similare sunt din ce în ce mai comune.

Cum putem limita halucinațiile?

Deși eliminarea completă a halucinațiilor pare dificilă, există strategii pentru a le reduce. Eleanor Watson recomandă „generarea augmentată cu recuperare” (retrieval-augmented generation), care ancorează răspunsurile AI în surse externe verificate, sporind astfel acuratețea informațiilor.

O altă metodă este introducerea unei structuri în procesul de raționament al modelului, prin care acesta să-și verifice propriile răspunsuri, să compare perspective diferite și să urmeze pași logici, reducând speculațiile necontrolate.

De asemenea, modelele pot fi antrenate să recunoască incertitudinea și să semnaleze când nu sunt sigure, sau să ceară intervenția umană în situații delicate.

O privire realistă asupra viitorului AI

Având în vedere că halucinațiile sunt probabil inevitabile, Kazerounian concluzionează că informațiile generate de AI trebuie tratate cu același scepticism cu care evaluăm afirmațiile oamenilor. În acest fel, putem folosi inteligența artificială ca un instrument puternic, dar cu precauție și discernământ.

Alte articole importante
Se complică situația în energie: Rompetrol ar putea opri două rafinării-cheie din România, sub presiunea fiscală
Companii
Se complică situația în energie: Rompetrol ar putea opri două rafinării-cheie din România, sub presiunea fiscală
Rafinăriile Petromidia Năvodari și Vega Ploiești, operate de Rompetrol Rafinare și deținute de Grupul KMG International, ar urma să își suspende activitatea pentru aproximativ 30 de zile, începând din luna februarie, potrivit surselor din industrie. Informația nu a fost confirmată oficial până în acest moment, însă vine într-un context tensionat, marcat de presiuni fiscale crescute […]
Rusia intenționează să construiască o centrală nucleară pe Lună: s-au aflat detalii
Rusia intenționează să construiască o centrală nucleară pe Lună: s-au aflat detalii
Luna este din ce în ce mai mult văzută ca o platformă pentru prezența umană pe termen lung dincolo de Pământ. Proiectul își propune să furnizeze energie programului lunar rusesc și unei stații științifice comune ruso-chineze. Rusia are planuri de a construi o centrală electrică pe Lună Federația Rusă intenționează să amplaseze o centrală nucleară pe […]
La ce să ne așteptăm în 2026: Pariurile marilor brokeri pe S&P 500 și economia globală
La ce să ne așteptăm în 2026: Pariurile marilor brokeri pe S&P 500 și economia globală
Anul 2026 se conturează drept unul de continuare a raliului de pe piețele financiare, potrivit previziunilor marilor case de brokeraj internaționale. Un sondaj realizat de Reuters arată că investitorii mizează în continuare pe inteligența artificială, pe scăderea costurilor de finanțare și pe o reziliență surprinzătoare a economiei globale, în pofida riscurilor persistente legate de inflație, […]
ANALIZĂ
Cum vor transforma AI-ul și roboții criminalitatea și aplicarea legii
Cum vor transforma AI-ul și roboții criminalitatea și aplicarea legii
AI-ul și robotica sunt pe cale să revoluționeze atât modul în sunt comise infracțiunile, cât și modul în care autoritățile le combat. Noile instrumente digitale promit să ofere forțelor de ordine o eficiență fără precedent, în timp ce delincvenții explorează deja metode avansate pentru a exploata aceleași tehnologii. AI și roboții: cum vor evolua criminalitatea […]
Hackerii au furat peste 2,7 miliarde $ în criptomonede în 2025
Hackerii au furat peste 2,7 miliarde $ în criptomonede în 2025
În 2025, hackerii au furat peste 2,7 miliarde de dolari în criptomonede, marcând cel mai mare jaf de acest gen din istoria digitală. Cele mai importante atacuri au vizat exchange-uri și proiecte DeFi și au implicat atât hackeri independenți, cât și grupuri susținute de state. Hackerii au furat criptomonede de 2,7 miliarde $ în 2025, […]
ANALIZĂ
De ce apare zeița Diana pe moneda de aur cu tematica „plăcuţele votive de la Germisara” lansată de BNR: Simbol al prestigiului și identității culturale
De ce apare zeița Diana pe moneda de aur cu tematica „plăcuţele votive de la Germisara” lansată de BNR: Simbol al prestigiului și identității culturale
Banca Naţională a României (BNR) a anunțat că lansează pe 29 decembrie în circuitul numismatic o monedă din aur cu tema Istoria aurului – Plăcuţele votive de la Germisara. Aversul monedei prezintă detalii ale artefactelor găzduite de Muzeul Civilizației Dacice și Romane din Deva, iar reversul redă un detaliu reprezentând-o pe zeiţa Diana la vânătoare. […]