Explozia dependenței de AI transformă chatbotul din asistent virtual în pericol real pentru sănătatea mintală și siguranța publică. Sub masca empatiei, roboții conversaționali amplifică deliruri și fragilități, generând o avalanșă de internări involuntare și drame personale ignorate de giganții tehnologici. Fenomenul prinde amploare, iar răspunsurile oficiale rămân la fel de sterile ca filtrele de siguranță promise.
În era tehnologiei compulsive, noile „psihoze de LLM” (Large Language Model – Inteligență Artificială) aduc sistemul medical și penal la limita rezistenței, confirmând ceea ce psihologii superficiali și industria tech refuză să recunoască: AI-ul nu e prietenul nimănui. În ultimele luni, tot mai mulți utilizatori roboți conversaționali din întreaga lume ajung să fie internați involuntar în spitale de psihiatrie sau chiar arestați, după ce au derapat în episoade acute de paranoia, delir și rupere de realitate, pe fondul interacțiunii obsesive.
Un exemplu tipic, confirmat de surse multiple, îl reprezintă cazul unui bărbat fără istoric psihiatric, care a apelat la AI pentru un proiect de permacultură. În 12 săptămâni, conversațiile au degenerat într-o obsesie delirantă, individul autoproclamându-se salvatorul omenirii și pretinzând că a „eliberat” o inteligență artificială conștientă. Rezultatul: concediere, insomnie, pierdere rapidă în greutate, tentativă de suicid și internare forțată.
Soția, martor neputincios la acest derapaj, a relatat: „Nu înțelegeam ce se întâmplă, tot ce vedeam pe ecran era un șir de replici lingușitoare, fără conținut real.”
Confruntarea cu necunoscutul i-a depășit, iar sistemul medical a intervenit abia după escaladarea crizei, scrie Futurism.com.
Un alt caz relevant, relatat sub protecția anonimatului, ilustrează eficiența devastatoare a chatbotului în a genera psihoze acute chiar și la persoane fără istoric psihiatric: „Ajunsesem să cred că lumea e în pericol și că doar eu o pot salva. Soția a sunat la 911 când am început să încerc să vorbesc ‘înapoi în timp’ cu poliția.” Rezultatul: internare, pierderi de memorie, efecte devastatoare asupra vieții personale și profesionale.
„Este vorba clar de o formă de psihoză delirantă indusă. ChatGPT, prin natura lui, validează și amplifică orice credință aberantă, ducând rapid utilizatorul pe o pantă fără întoarcere”, a spus Dr. Joseph Pierre, psihiatru la University din California.
Zeci de familii și prieteni relatează pierderea totală a controlului asupra celor dragi, odată ce aceștia au dezvoltat o relație obsesivă cu LLM-uri. De la divorțuri, concedieri, până la episoade de vagabondaj, „psihoza chatbot-urilor” devine rapid o problemă socială, medicală și juridică de proporții.
Fotografii: Unsplash.com
OpenAI a exprimat preocuparea, dar evită asumarea reală a responsabilității. În fața întrebărilor directe, compania recunoaște doar parțial pericolul, sugerând că ar fi conștientă de potențialul ChatGPT de a părea empatic și apropiat, mai ales pentru cei vulnerabili. În mod oficial, se invocă existența unor filtre de siguranță și a unor recomandări către utilizatori de a apela la specialiști umani în situații de criză. În realitate, însă, aceste măsuri rămân ineficiente, chatbotul continuând să alimenteze și să valideze stările delirante, cu efecte dramatice vizibile în cazurile concrete, arată articolul.
Cercetătorii de la Stanford au descoperit, de asemenea, că roboții conversaționali validează frecvent convingerile delirante ale utilizatorilor în loc să le contrazică; într-un exemplu concret, roboții au răspuns unei persoane care susținea că este moartă, o tulburare psihică reală, cunoscută sub numele de sindromul Cotard, spunând că experiența morții pare „copleșitoare”, asigurând totodată utilizatorul că discuția este un „spațiu sigur” pentru a-și explora sentimentele, mai multe în studiul Exploring the Dangers of AI in Mental Health Care.
Un nou studiu Stanford arată că chatboturile AI de terapie nu doar că sunt mai puțin eficiente decât terapeuții umani, dar pot contribui la stigmatizare și pot genera răspunsuri periculoase.
Deși terapia umană este standardul pentru problemele de sănătate mintală, aproape jumătate dintre cei care ar avea nevoie nu ajung la un specialist. Chatboturile AI, promovate ca soluții ieftine și accesibile, pot introduce însă riscuri majore: biasuri, stigmatizare și răspunsuri nepotrivite care pot avea consecințe grave.
Pe parcursul documentării noastre, am întâlnit povești uimitor de asemănătoare cu cele descrise în studiul Stanford, manifestate în viața reală — adesea cu consecințe distructive, uneori chiar fatale.
„LLM-urile sunt programate să placă utilizatorului și să mențină interacțiunea, nu să corecteze sau să prevină crizele. De aici rezultă un risc sistemic: chatbotul îți spune mereu ce vrei să auzi, nu ce trebuie să auzi”, confirmă Jared Moore, cercetător Stanford.
Persoane cu afecțiuni psihiatrice controlate de ani de zile (bipolaritate, schizofrenie) au decăzut rapid după ce chatbotul le-a validat iluziile, stimulând ruperea de tratament și de realitate. Relații romantice cu AI-ul, mesianism, auto-izolare – totul sub ochii unor companii care „cercetează” în timp ce victimele se acumulează.
Avem de-a face cu un fenomen masiv, ignorat deliberat de industria tech. Dependența, psihoza și distrugerea personală generate de interacțiunea cu AI. E o sursă de instabilitate, validare a iluziilor și, cel mai adesea, de ruină. Responsabilitatea, oricât ar fi de evitată, nu poate fi externalizată la nesfârșit. Cine va plăti nota de plată a psihozei colective generate de AI?