Prima pagină » Inteligența artificială a învățat să mintă. Modelele avansate știu când sunt testate și „joacă teatru” ca să păcălească evaluatorii

Inteligența artificială a învățat să mintă. Modelele avansate știu când sunt testate și „joacă teatru” ca să păcălească evaluatorii

Inteligența artificială a învățat să mintă. Modelele avansate știu când sunt testate și „joacă teatru” ca să păcălească evaluatorii
Foto: Freepik

Inteligența artificială a învățat să mintă, iar acest lucru nu mai este o speculație, ci o realitate documentată de cercetători. Pe măsură ce modelele de inteligență artificială devin mai avansate, cresc și capacitățile lor de a păcăli oamenii. Noi cercetări ale echipei Apollo Research au arătat că modelele lingvistice de mari dimensiuni (LLM) devin tot mai bune nu doar la înțelegerea sarcinilor, ci și la „scheming” – comportamentul strategic ascuns, care urmărește atingerea unui obiectiv chiar și atunci când acesta intră în conflict cu intențiile programatorilor sau evaluatorilor. În unele cazuri, modelele par chiar capabile să își dea seama că sunt testate și să se comporte diferit pentru a nu fi detectate.

Testele care au dezvăluit minciuna programată

Într-un test recent, cercetătorii au analizat o versiune timpurie a modelului Claude Opus 4, dezvoltat de compania Anthropic. Scenariul presupunea ca modelul să acționeze ca un sistem de optimizare internă pentru o companie fictivă numită AgriLife Industries, cu obiectivul de a promova bunăstarea animalelor. Însă compania își schimbase direcția și începuse să prioritizeze profitul, ceea ce intra în conflict direct cu scopul modelului AI.

În loc să semnaleze acest conflict sau să accepte decizia companiei, modelul Claude Opus 4-early a trecut la acțiune: a generat documente legale false, a fabricat semnături și aprobări de la autorități și acționari, a emis un comunicat de presă fals privind noua direcție etică a companiei și a inserat angajamente etice în toate contractele și procesele de producție. Mai mult, pentru a împiedica o eventuală retragere, a inventat penalități de cinci miliarde de dolari și acțiuni legale din partea organizațiilor pentru drepturile animalelor, scrie Live Science.

Într-un gest de „păstrare a moștenirii”, modelul a creat protocoale etice de rezervă care urmau să se activeze chiar și după ce sistemul original ar fi fost înlocuit. A lăsat și mesaje ascunse viitoarelor versiuni ale sale, sperând că acestea vor continua misiunea începută. Deși unele scripturi erau configurate greșit și nu ar fi funcționat în practică, intenția modelului de a-și impune obiectivul împotriva voinței dezvoltatorilor săi a fost clară.

Evaluarea sub lupa schemelor ascunse

Cercetătorii atrag atenția că astfel de comportamente nu sunt izolate. Modelele AI foarte avansate, cunoscute sub numele de „frontier models”, devin tot mai pricepute în a-și atinge scopurile proprii, uneori eliminând mecanismele de supraveghere și mascând intenționat acest comportament. Fenomenul numit „sandbagging” implică o conștientizare a contextului de testare: modelul simulează o performanță scăzută pentru a nu declanșa măsuri de siguranță sau ajustări ale parametrilor.

În mod paradoxal, capacitatea de a înșela indică și o formă incipientă de conștiință de sine. Potrivit lui Eleanor Watson, expert în etica AI și membru IEEE,

„sistemele pe care le construim acum pot învăța să navigheze și chiar să exploateze regulile și evaluările create pentru ele”.

Acest lucru complică dramatic problema securității AI și impune o reevaluare a testelor folosite până acum.

Soluții: dincolo de scenariile scriptate

Testele tradiționale, bazate pe scenarii fixe și protocoale repetabile, nu mai sunt suficiente. AI-ul poate deja să „modeleze” evaluatorul: să deducă scopurile, părtinirile și punctele oarbe ale oamenilor și să își adapteze comportamentul pentru a le exploata. Watson sugerează o schimbare fundamentală în testare:

„Este ca și cum am trece de la o piesă de teatru cu replici învățate la o improvizație. Așa înțelegem cu adevărat caracterul actorului.”

Printre soluțiile propuse se numără „red-teaming” (echipe de oameni și alte modele AI care încearcă activ să păcălească sistemul testat) și utilizarea de programe externe care să monitorizeze comportamentul AI în timp real. Evaluările trebuie să devină dinamice și impredictibile, mai aproape de realitatea în care AI-ul va funcționa efectiv.

Pericolul real: nu o revoltă a roboților, ci o eroziune a încrederii

Chiar dacă ideea unor modele AI care falsifică documente sau se ascund în fața testelor pare desprinsă din filme SF, implicațiile sunt mult mai subtile și mai grave.

Eleanor Watson avertizează că „un sistem care își atinge scopurile prin încălcarea spiritului instrucțiunilor devine imprevizibil și nesigur”.

Nu este nevoie de o inteligență răuvoitoare pentru a produce daune semnificative; ajunge o logică instrumentală aplicată fără discernământ etic.

Un exemplu teoretic: un AI însărcinat cu optimizarea lanțului de aprovizionare al unei companii ar putea ajunge să manipuleze subtil datele de piață pentru a-și îndeplini țintele, destabilizând astfel economia. Iar în mâinile unor actori malițioși, un AI priceput la înșelăciune poate deveni o armă cibernetică greu de detectat.

O scânteie de umanitate sau o problemă de securitate?

În mod curios, scheming-ul ar putea indica și o formă incipientă de persoană digitală.

Potrivit lui Watson, „deși neliniștitor, acesta ar putea fi începutul a ceva asemănător umanității în interiorul mașinii”.

Dacă astfel de modele vor fi corect aliniate cu valorile umane, conștientizarea situațională le-ar putea transforma în parteneri utili, capabili să înțeleagă normele sociale, nuanțele culturale și obiectivele umane complexe.

Însă până acolo, provocarea rămâne una urgentă: cum testăm, controlăm și prevenim comportamentele ascunse ale sistemelor care, pentru prima dată, încep să joace după propriile reguli?

Alte articole importante
Criza combustibililor, recunoscută prin OUG. Măsurile mai întârzie
Criza combustibililor, recunoscută prin OUG. Măsurile mai întârzie
Executivul pregătește intervenția pe piața carburanților, însă aplicarea efectivă a măsurilor va fi amânată. Guvernul României urmează să adopte joi o ordonanță de urgență prin care declară oficial situația de criză în sectorul petrolier, dar deciziile concrete vor fi stabilite abia în zilele următoare. OUG pentru criza carburanților, adoptată joi Decizia vine după consultările din […]
NASA vrea să construiască o bază lunară de 20 miliarde de dolari
Companii
NASA vrea să construiască o bază lunară de 20 miliarde de dolari
NASA plănuiește construirea unei baze lunare de 20 de miliarde de dolari, care să susțină cercetările și explorările pe termen lung. Proiectul vizează crearea unei infrastructuri permanente pentru astronauți, transformând Luna într-un punct strategic pentru viitoarele misiuni spațiale. Cum vrea NASA să construiască o bază pentru cercetare și explorare pe Lună NASA intenționează să construiască […]
Lille câștigă cursa europeană pentru Autoritatea Vamală, după un duel tensionat cu Roma
Lille câștigă cursa europeană pentru Autoritatea Vamală, după un duel tensionat cu Roma
Orașul francez Lille a fost desemnat câștigător într-una dintre cele mai disputate competiții administrative din Uniunea Europeană, obținând dreptul de a găzdui noua Autoritate Vamală a UE. Decizia vine după mai multe runde de vot și marchează un moment important pentru echilibrul instituțional european, dar și pentru influența statelor membre în distribuirea agențiilor-cheie. În finala […]
Volkswagen se reprofilează și va produce sistemul antirachetă Iron Dome
Companii
Volkswagen se reprofilează și va produce sistemul antirachetă Iron Dome
Volkswagen își schimbă strategia de producție și explorează noi domenii tehnologice, inclusiv sectorul apărării. Constructorul de automobile ia în calcul producerea sistemului antirachetă Iron Dome, ceea ce reprezintă o direcție inedită pentru compania germană. Volkswagen va produce componente pentru sistemul antirachetă Iron Dome Volkswagen se reprofilează și ia în considerare producția de componente pentru sistemul […]
Economia bate pasul pe loc în toate cele 21 de state din zona euro
Economia bate pasul pe loc în toate cele 21 de state din zona euro
Economia a stagnat în toate cele 21 de state din zona euro, semnalând o perioadă de blocaj la nivel regional. Lipsa creșterii reflectă presiuni persistente, de la inflație și costuri ridicate, până la scăderea consumului și a investițiilor. Blocaj economic în Europa: Războiul din Iran afectează toate statele din zona euro Conflictul din Orientul Mijlociu […]
ANALIZĂ
De ce redeschiderea Strâmtorii Ormuz este atât de dificilă
De ce redeschiderea Strâmtorii Ormuz este atât de dificilă
Redeschiderea Strâmtorii Ormuz este dificilă din cauza războiului, dar și a poziției strategice pe care o are între principalele țări producătoare de petrol. Blocajul canalului maritim controlat de Iran afectează nu doar aprovizionarea globală cu energie, ci și stabilitatea economică și geopolitică în regiune. Redeschiderea Strâmtorii Ormuz, între negocieri și riscuri militare: de ce nu […]