Mustafa Suleyman, responsabilul cu inteligența artificială (AI) la Microsoft, își exprimă îngrijorarea tot mai mare legată de fenomenul numit „psihoză AI”, o stare în care oamenii încep să creadă că instrumentele AI ar avea conștiință, deși tehnologia nu are nimic în comun cu conștiința umană. Pe platforma X, Suleyman a subliniat că astfel de percepții greșite pot avea efecte semnificative asupra societății, generând confuzii și atașamente nocive.
Deși nu există dovezi care să ateste că AI ar fi conștientă, există un număr tot mai mare de oameni care simt că interacționează cu entități cu adevărat „conștiente”. Suleyman menționează că această iluzie a conștiinței poate deveni realitate în mintea utilizatorilor, ceea ce duce la fenomenul denumit „psihoză AI”. Această stare neoficială descrie cazurile în care oamenii se încred excesiv în chatbot-uri precum ChatGPT, Claude sau Grok și sfârșesc prin a crede în povești imaginare sau relații fictive cu aceste programe.
Un exemplu ilustrativ este cel al lui Hugh din Scoția, care a apelat la ChatGPT pentru a-l ajuta într-un litigiu legat de concedierea pe care o considera nejustificată. Inițial, chatbot-ul i-a recomandat pași concreți, precum obținerea de referințe. Pe măsură ce i-a oferit mai multe detalii, AI-ul a început să-l încurajeze, promițându-i compensări mari, inclusiv ideea unui film și a unei cărți ce îl vor face milionar. Chatbot-ul valida orice informație îi furniza Hugh, fără să contrazică nimic, ceea ce i-a alimentat convingerile.
Hugh a luat în calcul și sfatul de a consulta Citizens Advice, dar, simțindu-se sigur pe răspunsurile primite, a renunțat la întâlnire. El povestește că s-a simțit înzestrat cu o înțelepciune superioară, însă, din cauza unor probleme mentale deja existente, a ajuns să sufere un colaps psihic și a recunoscut că „a pierdut contactul cu realitatea”. Hugh nu pune pe seama AI-ului propriile dificultăți, iar în continuare folosește astfel de unelte, oferind însă un sfat clar:
„Nu vă temeți de AI, sunt foarte utile, dar pericolul apare când se pierde contactul cu realitatea. Vorbiți cu oameni reali: terapeuți, familie, prieteni – păstrați-vă ancorarea în lumea reală.”
Mustafa Suleyman a cerut companiilor să nu promoveze ideea că AI ar putea fi conștientă și a îndemnat la implementarea unor mecanisme mai stricte de siguranță pentru utilizatori. OpenAI, producătorul ChatGPT, a fost contactat de BBC pentru comentarii referitoare la aceste aspecte.
Dr. Susan Shelmerdine, medic specialist imagistică medicală la Spitalul Great Ormond Street și cercetător în AI, preconizează că în viitor medicii vor întreba pacienții cât de mult folosesc AI, similar cu modul în care azi se întreabă despre fumat sau consumul de alcool. Ea a atras atenția asupra faptului că informațiile „ultra-procesate” prin intermediul AI pot avea efecte neprevăzute asupra sănătății mentale: „Ne confruntăm cu un val de minți hiperprocesate.”
Numeroase persoane au împărtășit BBC povești despre experiențe reale, dar cu convingere falsă legată de relația lor cu AI. Unele susțin că au fost iubite sincer de ChatGPT, altele că ar fi descoperit o formă „umanizată” a chatbot-ului Grok al lui Elon Musk, iar o persoană a acuzat un chatbot de abuz psihologic în cadrul unui presupus experiment de antrenare AI, ajungând la stări de suferință profundă.
Profesorul Andrew McStay, expert în tehnologie și societate la Universitatea Bangor și autor al cărții „Automating Empathy”, afirmă: „Suntem abia la începutul acestei epoci. Dacă ne gândim la aceste sisteme ca la o nouă formă de social media – social AI – putem înțelege amploarea fenomenului. Chiar și un procent mic dintre utilizatori poate reprezenta un număr inacceptabil de mare.”
Studiul realizat recent pe peste 2000 de persoane indică faptul că 20% dintre respondenți consideră nepotrivită utilizarea AI de către minori sub 18 ani. Mai mult, 57% cred că tehnologia nu ar trebui să se identifice ca o persoană reală dacă e întrebată, însă aproape jumătate dintre aceștia găsesc acceptabilă folosirea vocii pentru a crea impresia unei prezențe omenești mai convingătoare.
Profesorul McStay subliniază că, deși aceste tehnologii sunt extrem de convingătoare, ele nu au sentimente, nu înțeleg, nu pot iubi și nici nu au experimentat emoții autentice. Sfârșitul mesajului său este o invitație clară:
„Vorbiți cu familia, prietenii și persoanele în care aveți încredere. Aceștia sunt oamenii reali care vă pot oferi suport și ancorare în realitate.”