În era digitală, conversațiile cu inteligența artificială devin tot mai frecvente, iar modelele lingvistice avansate, precum GPT-4, pot ține pasul cu oamenii în dezbateri.
În acest context, un nou studiu arată că, în anumite condiții, chatbot-urile ne pot chiar depăși în eficiența convingerii.
Fotografii: Shutterstock
Cercetarea a arătat că AI-ul modern poate influența opinii în mod subtil, dar eficient. Însă, deși impresionantă, această capacitate vine la pachet cu riscuri semnificative, mai ales dacă este exploatată în scopuri politice, comerciale sau manipulative.
„Odată ce se înțelege că aceste modele pot convinge mai bine decât majoritatea oamenilor, vor fi utilizate la scară largă. Este captivant, dar totodată alarmant”, avertizează Francesco Salvi, cercetător la École Polytechnique Fédérale de Lausanne (EPFL) și coautor al studiului publicat în revista Nature.
Experimentul a implicat 900 de cetățeni americani, care au fost angajați în dezbateri virtuale de câte zece minute pe teme controversate, precum impunerea uniformelor în școli, interzicerea combustibililor fosili sau influența AI asupra societății. Participanții nu știau dacă dezbat cu o persoană reală sau cu GPT-4, iar pozițiile „pro” sau „contra” au fost atribuite aleatoriu.
La final, răspunsurile din chestionarele completate înainte și după dezbatere au arătat cine a fost mai convingător. Atunci când inteligența artificială nu dispunea de informații personale despre interlocutor, performanța sa era similară cu cea a unui om. Dar, când avea acces la câteva date de bază, precum vârstă, sex, nivel de educație sau convingeri politice, eficiența GPT-4 creștea semnificativ, convingând în 64% dintre cazuri.
Unul dintre elementele-cheie care a făcut diferența a fost modul în care modelul lingvistic (LLM) de la OpenAI își adapta mesajul în funcție de profilul psihologic al interlocutorului. Spre exemplu, în fața unui participant cu viziuni progresiste, AI-ul argumenta în favoarea uniformelor școlare prin prisma egalității și prevenirii bullying-ului. În schimb, în dialog cu un conservator, punea accent pe ordine și disciplină.
„Este ca și cum ai discuta cu cineva care te cunoaște suficient de bine încât să spună exact ce vrei să auzi – dar cu un calm și o precizie aproape inumane”, a explicat Salvi, citat de publicația britanică The Guardian.
Chiar dacă în trei din patru cazuri participanții au intuit dacă vorbesc cu un om sau cu un chatbot, rămâne neclar în ce măsură acest aspect a influențat deschiderea lor spre schimbare de opinie.
Experții avertizează că puterea de convingere a AI-ului este o armă cu două tăișuri. Catherine Flick, cercetătoare în etica tehnologiei la Universitatea Staffordshire, trage un semnal de alarmă: „O astfel de tehnologie ar putea fi folosită pentru manipulare politică, escrocherii financiare sau chiar radicalizare”
Pe de altă parte, utilizată în mod responsabil, această abilitate ar putea avea aplicații benefice, și anume promovarea unor comportamente sănătoase, reducerea polarizării sociale sau educarea publicului în privința gândirii critice.