Pe măsură ce AI-ul devine tot mai sofisticat, apare un paradox: modelele avansate sunt mai „creative”, dar și mai predispuse la halucinații – adică la generarea de informații false, dar prezentate convingător. Cercetările recente realizate de OpenAI arată că modelele lor de ultimă generație, deși mai performante în raționamente complexe, oferă tot mai des răspunsuri eronate.
Un raport recent al OpenAI a scos la iveală un fenomen neașteptat: modelele lor de inteligență artificială cele mai avansate – denumite o3 și o4-mini – halucinează în proporții alarmante. Potrivit benchmarkului PersonQA, modelul o3 generează informații false în 33% din cazuri, iar o4-mini în aproape jumătate (48%). Aceste cifre sunt de peste două ori mai mari decât în cazul modelului anterior, o1. Așadar, deși puterea de raționament crește, și riscul de dezinformare o face.
Halucinațiile în AI se referă la generarea de informații eronate, dar livrate cu aceeași fluență și convingere ca faptele reale. Potrivit expertei în etică AI Eleanor Watson, membră IEEE, acest tip de conținut poate păcăli utilizatorii, mai ales când este inserat subtil printre informații corecte. Ea avertizează că utilizatorii ar putea accepta fără filtrare astfel de informații, ceea ce ar putea avea consecințe grave în domenii sensibile precum medicina, educația sau justiția.
Cu toate acestea, nu toți cercetătorii privesc halucinațiile ca pe o deficiență. Unii, precum Sohrob Kazerounian, cercetător în AI la Vectra AI, susțin că „halucinația este o caracteristică, nu un defect”. Potrivit lui, tot ceea ce generează un LLM este, în esență, o halucinație – doar că unele sunt adevărate.
Această capacitate de a inventa este ceea ce permite AI-ului să fie creativ. Dacă s-ar limita strict la informațiile din datele de antrenament, AI-ul ar deveni doar un motor de căutare gigantic, incapabil de inovație. Nu ar putea genera cod nou, descoperi structuri moleculare inedite sau crea artă. Astfel, halucinațiile sunt necesare pentru a permite AI-ului să „gândească” dincolo de limitele cunoașterii existente – la fel cum oamenii visează sau își imaginează scenarii atunci când creează ceva nou.
Provocarea majoră rămâne însă cum să limităm halucinațiile fără a elimina complet potențialul creativ al AI-ului. Eleanor Watson propune o abordare structurată: modele care își verifică propriile răspunsuri, compară puncte de vedere diferite sau urmează pași logici riguroși. De asemenea, instruirea modelelor să recunoască gradul propriu de incertitudine ar putea reduce răspunsurile eronate rostite cu prea multă încredere.
„În loc să răspundă mereu cu certitudine, modelele pot învăța să semnalizeze când nu sunt sigure sau să recomande intervenția unui om”, explică Watson. Această abordare nu elimină complet confabulațiile, dar le reduce și face AI-ul mai responsabil.
Pe termen lung, e clar că AI-ul nu va putea scăpa complet de halucinații, mai ales pe măsură ce modelele devin tot mai avansate. De aceea, specialiștii subliniază că trebuie să tratăm răspunsurile AI cu același scepticism pe care îl aplicăm și oamenilor – în special în contexte critice.