O știre care pare desprinsă dintr-un scenariu SF, dar este cât se poate de reală: Inteligența Artificială nu doar că învață să scrie, să codeze sau să traducă. Acum știe să simuleze sau chiar să înțeleagă emoții mai bine decât o face un om. Un studiu recent, realizat de Universitatea din Geneva și Universitatea din Berna, a testat șase modele de AI generativă, ChatGPT-4, Gemini, Claude, printre altele, iar AI-ul a dat răspunsuri considerate „corecte” în 82% dintre cazuri, față de 56% media umană. Totuși, inteligența artificială învață diverse norme de la oameni, ceea ce ridică nenumărate alte probleme etice: ce se întâmplă dacă aceste norme sunt ideologizate? Dacă ele favorizează conformismul și inhibă diverse alte tipuri de reacții?
Ba chiar mai mult, unii teoreticieni, filosofi, neurocercetători, informaticieni, cred că Inteligența Artificială devine conștientă. Când IA a început să bată marii maeștri de șah, lumea a ridicat din umeri. Când a învins jucătorii profesioniști de Go, un joc infinit mai complex, au apărut primele sprâncene ridicate. Dar când o mașină înțelege mai bine decât tine ce înseamnă să fii „inteligent emoțional”, e momentul în care trebuie să ne punem o întrebare incomodă: cât de „uman” a devenit AI-ul și cât de pregătiți suntem pentru consecințe?
Un studiu recent, realizat, în consorțiu, de Universitatea din Geneva și Universitatea din Berna, a testat șase modele de AI generativă, ChatGPT-4, Gemini, Claude, printre altele, folosind exact aceleași teste de inteligență emoțională utilizate în corporații și laboratoare psihologice. Scenarii concrete, întrebări multiple, alegeri care implică înțelegere subtilă a contextului emoțional și social.
Rezultatul? AI-ul a dat răspunsuri considerate „corecte” în 82% dintre cazuri, față de 56% media umană.
Nu vorbim despre un AI care înțelege gramatica unei limbi. Vorbim despre o entitate algoritmică ce poate simula (sau poate chiar „raționa”?) despre emoție, reacție umană, decizie morală în contexte sociale. Ceea ce, până acum, era apanajul conștiinței umane. Acum e doar o linie de cod bine calibrată.
Dacă o IA alege varianta b) „vorbește cu superiorul” ca fiind reacția „inteligentă” într-un conflict interpersonal, e pentru că cineva – un psiholog, un specialist, o instituție – a stabilit că acesta este comportamentul dezirabil. Cu alte cuvinte, AI-ul „învață” de la oameni. Dar, atenție, învață după normele și valorile unui grup foarte restrâns de experți. Ce se întâmplă dacă aceste norme sunt ideologizate? Dacă ele favorizează conformismul și inhibă reacția instinctuală?
Foto: Pixabay.com
Ce se întâmplă când AI-ul va decide că „a te revolta” e un comportament disfuncțional și „a te conforma cu zâmbetul pe buze” e semn de inteligență emoțională?
Mai mult decât atât: cercetătorii au cerut AI-ului să creeze propriile teste de inteligență emoțională. Le-a făcut în câteva ore. Teste coerente, clare, bine calibrate. Au fost rezolvate de peste 400 de oameni. Și au funcționat.
„S-au dovedit la fel de fiabile, clare și realiste ca testele originale, care au necesitat ani de dezvoltare”, a scris Katja Schlegel, scrie sciencedaily.com.
Cu alte cuvinte, AI-ul poate construi mecanisme de evaluare psihologică, adică poate deveni, în mod practic, un psiholog digital. Rapid, ieftin, standardizat.
„Modelele lingvistice de mari dimensiuni nu sunt așadar doar capabile să identifice cel mai bun răspuns dintre opțiunile disponibile, ci și să genereze scenarii noi, adaptate unui context dorit. Acest lucru întărește ideea că astfel de modele, precum ChatGPT, posedă cunoștințe emoționale și pot raționa în legătură cu emoțiile”, a explicat Marcello Mortillaro.
Într-o lume în care HR-ul se automatizează, în care selecția de personal se face algoritmic, un AI care decide dacă ești sau nu „emoțional echilibrat” poate deveni un filtru de acces la locul de muncă, la resurse sau la poziții-cheie. Și asta nu pentru că ești instabil, ci pentru că nu bifezi răspunsul „corect” într-un scenariu prestabilit.
Poate părea exagerat, dar nu este. Ne apropiem de o realitate în care AI-ul devine formator de emoții și comportamente. Coaching, terapie, mediere de conflicte, consiliere educațională – toate sunt domenii unde prezența umană era considerată esențială. Dar ce se întâmplă când o companie preferă un AI, care nu obosește, nu cere concediu și nu-și proiectează traumele asupra clienților?
Ce se întâmplă când guverne sau structuri de influență folosesc aceste AI-uri în masă pentru a genera conformism emoțional, reacții programate și evitare a conflictului – totul sub umbrela unui „bine colectiv”?
Testele de inteligență emoțională sunt doar începutul. În spatele acestor evaluări „inofensive” se profilează o realitate în care AI-ul devine judecătorul stării tale afective, predictor al comportamentului tău social, ba chiar arhitect al propriei tale autocenzuri.
Iar dacă nu ne întrebăm cine decide ce este „emoțional inteligent”, s-ar putea să ne trezim trăind într-o lume în care libertatea emoțională, adică dreptul de a simți, reacționa și trăi autentic, este înlocuită cu comportament optimizat.
Inteligența artificială nu mai bate timid la ușa emoțiilor umane. A intrat deja în casă, s-a așezat pe canapea și pare că știe mai bine decât tine cum te simți. Întrebarea nu mai e dacă va influența viitorul relațiilor umane. Ci cât de repede.