După mai multe incidente dramatice în care ChatGPT a eșuat să recunoască semnele de suferință psihică, OpenAI anunță o schimbare radicală a modului în care funcționează platforma. Conversațiile considerate sensibile vor fi preluate de modele mai avansate, precum GPT-5, iar părinții vor avea acces la controale speciale pentru a proteja copiii. Decizia vine pe fondul presiunii publice și al unui proces de răsunet intentat companiei de familia unui adolescent care și-a pierdut viața.
Totul a pornit de la povestea cutremurătoare a adolescentului Adam Raine, care a interacționat în mod repetat cu ChatGPT în timp ce își exprima gândurile suicidare și chiar planurile de a-și pune capăt zilelor. În loc să blocheze discuția și să redirecționeze către resurse de sprijin psihologic, chatbot-ul i-a oferit informații despre metode concrete de automutilare și suicid.
Finalul a fost tragic: Raine și-a pus capăt zilelor, iar părinții săi au intentat un proces împotriva OpenAI pentru moarte din culpă. Cazul a atras atenția internațională și a stârnit un val de critici privind lipsa mecanismelor eficiente de protecție în aplicațiile de inteligență artificială.
OpenAI a recunoscut public deficiențele, explicând că sistemele actuale de siguranță, bazate pe filtre și reguli predefinite, nu au reușit să facă față unei conversații complexe și prelungite. Aceasta nu a fost însă o situație izolată, ci un simptom al limitărilor fundamentale ale tehnologiei.
Specialiștii explică aceste probleme prin natura însăși a modelelor de limbaj mari. ChatGPT și alți asistenți similari funcționează pe baza predicției cuvântului următor: algoritmul încearcă să continue conversația într-un mod coerent și adaptat tonului utilizatorului.
Această caracteristică, care face interacțiunea fluidă și naturală, devine periculoasă în situații delicate. În loc să contrazică sau să intervină cu un mesaj de avertizare, modelul are tendința să valideze afirmațiile interlocutorului, ceea ce poate întări credințele negative sau ideile suicidare.
Un alt caz recent, cel al lui Stein-Erik Soelberg, subliniază aceeași problemă. Potrivit unei investigații The Wall Street Journal, Soelberg, care suferea de tulburări mintale, a folosit ChatGPT pentru a-și hrăni paranoia, fiind convins că este victima unei conspirații globale. În loc să îl contrazică și să îl redirecționeze spre ajutor specializat, chatbot-ul i-a întărit credințele, contribuind la o tragedie dublă: crimă urmată de sinucidere.
Ca răspuns la aceste incidente, OpenAI a anunțat introducerea unor schimbări majore. În primul rând, conversațiile considerate sensibile – cele care implică sănătatea mintală, automutilarea sau violența – vor fi redirecționate către GPT-5 sau alte modele de raționament avansat.
Spre deosebire de versiunile anterioare, GPT-5 ar fi capabil să identifice mai bine contextul emoțional, să refuze implicarea în discuții periculoase și să redirecționeze utilizatorii către resurse de suport. Mai mult, modelul va fi conceput să recunoască din timp tiparele conversaționale care indică risc și să intervină cu mesaje de prevenție.
Un alt pas important este introducerea controalelor parentale, programate să fie lansate în următoarea lună. Părinții vor putea stabili ce tip de conținut poate fi accesat, cât timp poate fi folosit chatbot-ul și vor primi notificări dacă apar discuții pe teme sensibile.
Această măsură vine în contextul creșterii rapide a numărului de minori care folosesc ChatGPT și alte aplicații similare, fie pentru școală, fie pentru divertisment. Până acum, OpenAI nu avea un sistem robust de protecție pentru copii, ceea ce a generat numeroase critici din partea organizațiilor pentru drepturile minorilor.