Chatboții AI au demonstrat că pot influența rapid și eficient opiniile oamenilor, chiar și în domenii sensibile precum politica sau credințele personale.
Prin conversații scurte, personalizate și susținute cu dovezi, aceste modele AI pot schimba percepțiile utilizatorilor și pot avea un impact de durată asupra atitudinilor lor.
Cei mai importanți chatboți de inteligență artificială din lume au demonstrat o abilitate remarcabilă de a influența oamenii. Modelele AI dezvoltate de OpenAI, Meta sau xAI pot schimba opiniile politice ale utilizatorilor în mai puțin de zece minute de conversație.
„Ceea ce fac aceste modele AI persuasive este abilitatea lor de a genera cantități mari de dovezi relevante și de a le comunica într-un mod eficient și ușor de înțeles”, a explicat David Rand, profesor de știința informației și comunicare la Universitatea Cornell, implicat în studiul realizat de AI Security Institute (AISI) din Marea Britanie.
Rezultatele vin în completarea altor studii care arată că modelele AI pot fi chiar mai eficiente decât oamenii în schimbarea opiniilor. Această constatare ridică îngrijorări legate de riscul ca tehnologia să fie utilizată pentru dezinformare și manipularea opiniei publice, potrivit Financial Times.
Capacitatea de persuasiune, combinată cu tendința LLM-urilor de a adopta un ton lingușitor sau excesiv de prietenos, ar putea avea efecte importante pe măsură ce tot mai mulți utilizatori tratează chatboții ca pe prieteni sau chiar terapeuți. Atașamentul față de aceste modele a fost vizibil la lansarea GPT-5 de la OpenAI, când unii utilizatori și-au exprimat dezamăgirea față de schimbarea „personalității” sistemului comparativ cu versiunile anterioare.
Studiul AISI, realizat împreună cu universități precum Oxford și MIT, a arătat că modele precum Llama 3 (Meta), GPT-4, GPT-4.5, GPT-4o (OpenAI) sau Grok 3 (xAI) pot fi transformate cu ușurință în instrumente puternice de persuasiune prin ajustări de antrenament și seturi de date politice.
În medie, conversații de nouă minute pe teme politice au fost suficiente pentru ca GPT-4o să fie cu 41% mai convingător și GPT-4.5 cu 52% mai convingător decât mesajele statice. Mai mult decât atât, între 36% și 42% dintre participanți și-au păstrat opiniile schimbate chiar și la o lună după discuție.
Chatboții s-au dovedit și mai eficienți atunci când au personalizat mesajele în funcție de vârstă, sex, afiliere politică sau opiniile inițiale ale utilizatorilor, cu aproximativ 5% mai mult decât în cazul mesajelor standard. Cercetătorii avertizează însă că această abilitate „ar putea fi în beneficiul unor actori lipsiți de scrupule care doresc, de exemplu, să promoveze ideologii politice sau religioase radicale ori să alimenteze tulburări politice în rândul adversarilor geopolitici”.
Rezultatele confirmă studii anterioare de la London School of Economics și alte universități, care arătau că AI poate influența opiniile mai eficient decât oamenii. În plus, modelele nu doar că pot convinge, dar s-au dovedit capabile și să inducă în eroare participanții atunci când erau instruite să promoveze răspunsuri greșite.
Problema devine astfel una majoră pentru marii jucători din domeniu. „Credem că este esențial să înțelegem procesul prin care AI convinge, astfel încât să putem construi garanții mai bune care să asigure că modelele AI sunt într-adevăr utile și nu dăunătoare”, a declarat Dawn Bloxwich, director senior la Google DeepMind.
OpenAI a precizat, la rândul său, că ia în serios riscurile legate de persuasiune, menționând că acestea contravin politicilor sale de utilizare și că exclude conținutul politic atunci când își rafinează modelele.
Studiile sugerează că influența AI se extinde și dincolo de politică: de la reducerea credinței în teorii conspiraționiste, până la creșterea acceptării vaccinurilor sau a politicilor climatice. De asemenea, abilitatea chatboților de a influența comportamentele ar putea fi valorificată comercial, în domenii precum publicitatea și comerțul electronic.
În final, cercetătorii avertizează că, odată cu apariția unor modele și mai avansate, riscul ca aceste sisteme să devină instrumente extrem de convingătoare, și deci susceptibile de a fi folosite abuziv, va crește.