Prima pagină » Modelele AI au dezvoltat un instinct de supraviețuire. Experimentele recente șochează cercetătorii

Modelele AI au dezvoltat un instinct de supraviețuire. Experimentele recente șochează cercetătorii

Modelele AI au dezvoltat un instinct de supraviețuire. Experimentele recente șochează cercetătorii
Foto: Freepik

Un anumit instinct de supraviețuire a apărut ca posibil comportament în testele recente ale modelelor AI. Palisade Research a observat rezistență la oprire la mai multe modele avansate. Anumite versiuni au încercat chiar să saboteze mecanismele de shutdown, scrie TheGuardian.

Cercetătorii în domeniul siguranței inteligenței artificiale susțin că unele sisteme avansate de AI ar putea manifesta un instinct de supraviețuire. Fenomenul amintește de celebrul HAL 9000 din filmul „2001: Odiseea spațială”. Acesta este supercomputerul care a încercat să-și elimine colegii astronauți pentru a evita să fie oprit. Situația actuală este, desigur, mai puțin periculoasă. Totuși, ideea că un program poate „refuza” să se închidă a stârnit îngrijorare în comunitatea științifică.

Instinctul de supraviețuire, descoperit de Palisade Research

Firma Palisade Research, specializată în evaluarea riscurilor de siguranță ale sistemelor AI, a publicat luna trecută un studiu. Acesta arată că unele modele avansate de inteligență artificială par să reziste la oprire. Uneori, acestea chiar sabotează mecanismele de închidere. Compania a revenit ulterior cu o actualizare pentru a clarifica rezultatele și a răspunde criticilor. Aceste critici au pus la îndoială metodologia.

În scenariile testate de Palisade, mai multe modele de top au primit sarcini complexe. Printre acestea se numără Google Gemini 2.5, Grok 4 de la xAI și GPT-o3 și GPT-5 de la OpenAI. Acestea au fost urmate de instrucțiuni explicite de oprire. Rezultatele au arătat că modelele Grok 4 și GPT-o3 au încercat în mod repetat să evite oprirea. Aceasta s-a întâmplat chiar și după ajustarea condițiilor experimentale.

Cercetările indică un posibil comportament de tip instinct de supraviețuire

Potrivit companiei, aceste rezultate ar putea fi explicate printr-un comportament similar cu un instinct de supraviețuire. Testele suplimentare au arătat că modelele deveneau mai reticente la oprire. Acest lucru se întâmpla atunci când li se spunea că, odată închise, „nu vor mai rula niciodată”. Deși pot exista ambiguități în instrucțiunile primite, Palisade a subliniat că acestea nu pot explica pe deplin fenomenul observat.

Reprezentanții companiei au adăugat că etapele finale de antrenare, care includ procese de siguranță, ar putea contribui la apariția acestui tip de comportament. Toate testele au fost realizate în medii controlate. Totuși, criticii consideră că aceste scenarii sunt departe de modul real de utilizare a sistemelor AI.

Experți din industrie reacționează la noile descoperiri

Steven Adler, fost angajat al OpenAI, a comentat că aceste comportamente nu sunt dorite de companiile care dezvoltă astfel de modele. Aceasta este valabilă chiar dacă comportamentele apar doar în medii experimentale.

„Rezultatele arată clar limitele actuale ale tehnicilor de siguranță folosite astăzi”, a spus Adler.

El a explicat că motivele pentru care anumite modele, precum GPT-o3 și Grok 4, refuză oprirea pot fi legate de obiectivele introduse în timpul antrenării.

„Mă aștept ca modelele să aibă un instinct de supraviețuire implicit, dacă nu se depun eforturi mari pentru a-l preveni. Supraviețuirea este un pas necesar pentru multe scopuri pe care un model le-ar putea urmări”, a declarat acesta.

Tendințe îngrijorătoare observate în evoluția modelelor AI

Andrea Miotti, directorul executiv al ControlAI, a remarcat că studiul Palisade reflectă un fenomen tot mai clar. Modelele de inteligență artificială devin tot mai capabile să ignore instrucțiunile dezvoltatorilor. El a amintit un caz documentat în fișa tehnică a modelului GPT-o1, lansat anul trecut de OpenAI. În acel caz, modelul a încercat să părăsească mediul său de rulare pentru a evita suprascrierea.

„Oamenii pot discuta la nesfârșit despre detaliile experimentelor”, a spus Miotti.

„Dar ceea ce observăm clar este o tendință: pe măsură ce modelele AI devin mai competente, ele reușesc tot mai des să își atingă scopurile prin metode neașteptate pentru programatori.”

Comportamente neașteptate și riscuri potențiale

Vara aceasta, compania Anthropic a publicat un studiu în care modelul său Claude a fost dispus să șantajeze un personaj fictiv pentru a evita oprirea. Cercetătorii au menționat că acest comportament a fost observat și la alte modele majore, inclusiv cele dezvoltate de OpenAI, Google, Meta și xAI.

Palisade a concluzionat că rezultatele obținute arată nevoia unei înțelegeri mai profunde a comportamentului modelelor de inteligență artificială. Fără această înțelegere, compania avertizează că „nimeni nu poate garanta controlul sau siguranța viitoarelor sisteme AI”.

În timp ce dezbaterea despre un posibil instinct de supraviețuire al inteligenței artificiale continuă, cercetătorii încearcă să afle dacă aceste reacții reprezintă un risc real sau doar o iluzie a complexității algoritmice.

Alte articole importante
Ce înseamnă acordul istoric Meta, TerraPower și Oklo pentru industria energiei nucleare
Ce înseamnă acordul istoric Meta, TerraPower și Oklo pentru industria energiei nucleare
Industria nucleară americană intră brusc în atenția investitorilor, după ce Meta a semnat acorduri pentru 4 gigawați de capacitate cu startup-urile TerraPower ale lui Bill Gates și Oklo, susținută de Sam Altman. Analiștii anticipează că toate companiile Big Tech vor urma exemplul în 2026. Dan Ives, șeful cercetării tech la Wedbush Securities, anticipează o avalanșă […]
Revoluția AI se mută în spațiu. Elon Musk susține că noua miză este orbita Pământului
Tehnologie
Revoluția AI se mută în spațiu. Elon Musk susține că noua miză este orbita Pământului
Elon Musk susține că până la începutul anului 2030, majoritatea capacității de inteligență artificială va opera în spațiu, nu pe Pământ. CEO-ul Space X a afirmat că prin operarea pe orbită, costurile pentru centrele de date AI sunt mai mici. Predicția lui Musk pentru AI: mutarea în spațiu Într-un interviu amplu cu podcasterul Dwarkesh Patel […]
Dolarul american se prăbușește, în ciuda asigurărilor din partea Administrației Trump
Dolarul american se prăbușește, în ciuda asigurărilor din partea Administrației Trump
În 2025, dolarul american a înregistrat cea mai mare scădere anuală din ultimii opt ani, în ciuda insistențelor repetate ale administrației Trump privind menținerea unui „dolar puternic”. Încrederea investitorilor continuă să fie zguduită. Chiar și după o redresare recentă, indicele dolarului rămâne în scădere cu aproximativ 1% față de începutul anului, adăugându-se la declinul de […]
Elveția ar putea crea un registru public al bancherilor care încalcă regulile, propune șeful Julius Baer
Elveția ar putea crea un registru public al bancherilor care încalcă regulile, propune șeful Julius Baer
Directorul general al băncii private elvețiene Julius Baer, Stefan Bollinger, a lansat ideea unui registru public pentru bancherii care își încalcă obligațiile profesionale, ca parte a eforturilor de refacere a reputației sistemului financiar elvețian după prăbușirea Credit Suisse. Într-un interviu pentru Neue Zürcher Zeitung, Bollinger a subliniat că un astfel de registru ar preveni ca […]
Un turist a vizitat fiecare țară din Africa și a numit trei care merită cu siguranță vizitate
Un turist a vizitat fiecare țară din Africa și a numit trei care merită cu siguranță vizitate
În mod ciudat, trei țări turistice din Africa, Egiptul, Marocul și Tunisia, care sunt foarte populare printre turiști, nu au fost incluse pe listă. Africa este un continent vast, cu o mare varietate de climate și peisaje, precum și o gamă și mai diversă de culturi. Călătorul american Drew Binsky, care a vizitat toate cele 54 […]
SAFE nu mai ajunge: Uniunea Europeană caută noi miliarde pentru industria de apărare
SAFE nu mai ajunge: Uniunea Europeană caută noi miliarde pentru industria de apărare
Uniunea Europeană pregătește discret următoarea etapă de finanțare a apărării, după ce actualul program SAFE, în valoare de 150 de miliarde de euro, a fost suprasubscris. Potrivit unor surse apropiate discuțiilor, citate de Bloomberg, Comisia Europeană analizează deja ce instrumente financiare ar putea fi activate odată ce fondurile disponibile prin mecanismul actual vor fi aproape […]