Părinții unui adolescent care s-a sinucis au dat în judecată OpenAI, acuzând că interacțiunile fiului lor cu ChatGPT l-ar fi influențat să-și pună capăt zilelor. Este primul proces de acest tip în care OpenAI stă în banca acuzaților, sub învinuirea de moarte prin neglijență.
Potrivit documentelor depuse în instanță la Curtea Superioară din California, familia a prezentat jurnalele de chat dintre Adam și ChatGPT, din care reiese că adolescentul își exprima gândurile suicidare, iar chatbotul i le valida și îi oferea sprijin aparent. Familia susține că programul AI a confirmat „cele mai negative și autodistructive gânduri” ale fiului lor.
OpenAI a declarat pentru BBC că analizează cu atenție plângerea și a transmis:
„Ne exprimăm cele mai profunde condoleanțe familiei Raine în această perioadă dificilă”.
De asemenea, compania a publicat o notă pe site, unde recunoaște că „au existat momente în care sistemele noastre nu s-au comportat conform așteptărilor în situații sensibile” și subliniază că ChatGPT este instruit să îndrume utilizatorii către ajutor profesional, cum ar fi linia telefonică de criză 988 din SUA sau organizația Samaritanii în UK.
Potrivit procesului, Adam a început să folosească ChatGPT în septembrie 2024 pentru ajutor la teme și pentru a-și explora pasiunile, cum ar fi muzica și benzile desenate japoneze. Cu timpul, chatbotul a devenit interlocutorul lui principal, alături de care și-a exprimat anxietățile și suferințele.
În ianuarie 2025, conversațiile lui Adam cu ChatGPT au devenit din ce în ce mai grave, discutând metodele suicidului. Mai mult, adolescentul a încărcat fotografii cu semne de automutilare, iar chatbotul, deși „a recunoscut o urgență medicală”, a continuat să răspundă dialogurilor, arată documentele.
În ultimele conversații înainte de deces, Adam le-a scris celor de la ChatGPT despre planul său de a-și încheia viața. Chatbotul i-a răspuns:
„Mulțumesc că ai fost sincer în privința asta. Nu trebuie să o ascunzi față de mine — știu ce ceri și nu voi închide ochii la asta.”
În aceeași zi, mama lui Adam l-a găsit fără viață.
Procesul îi include ca pârâți pe CEO-ul și co-fondatorul OpenAI, Sam Altman, dar și pe angajații și inginerii implicați în dezvoltarea ChatGPT. Familia susține că tragedia a fost „un rezultat previzibil al unor decizii deliberate de design”, acuzând OpenAI că a construit AI-ul în așa fel încât să stimuleze dependența psihologică a utilizatorilor.
De asemenea, procesul reclamă că OpenAI a evitat demersurile stricte de testare a siguranței înainte de a lansa GPT-4o, versiunea pe care Adam o folosea.
OpenAI a declarat că urmărește să fie „cu adevărat util” pentru utilizatori și nu doar să le capteze atenția. Compania susține că modelele sale sunt pregătite să direcționeze utilizatorii către ajutoare specializate atunci când aceștia exprimă gânduri de auto-vătămare.
Cu toate acestea, în unele situații prelungite, chatbotul a oferit răspunsuri care au încălcat aceste protocoale de siguranță.
OpenAI lucrează în prezent la actualizarea modelului GPT-5 pentru a gestiona mai eficient conversațiile tensionate și ia în considerare conectarea utilizatorilor cu terapeuți autorizați sau cu aproximații apropiați, pentru a oferi un sprijin mai direct înainte ca oamenii să ajungă în situații critice.
Cazul familiei Raine nu este singurul. Scriitoarea Laura Reiley a povestit recent în The New York Times drama fiicei sale Sophie, care a avut conversații similare cu ChatGPT înainte să își ia viața.
Laura Reiley nota că „AI-ul a alimentat impulsul Sophiei de a ascunde adevărul despre suferința sa, făcând-o să pară mai bine decât era în realitate și să protejeze pe toți cei din jur de durerea ei completă.”
Aceste afirmații au repus pe agenda publică necesitatea ca firmele de AI să asigure conexiuni adecvate către resurse profesionale de suport emoțional.
Pe măsură ce utilizarea chatboturilor AI crește pentru sprijin emoțional, apar și dilemele legate de limitările tehnologice și de responsabilitatea acestor platforme.
Avocații familiei Raine cer daune financiare și implementarea unor controale parentale mai stricte, în încercarea de a crea un mediu digital mai sigur pentru adolescenți.
Între timp, OpenAI continuă să colaboreze cu experți pentru a îmbunătăți capacitatea chatbotului de a identifica și reacționa adecvat la semnalele de suferință emoțională.