Cei mai performanți chatboți excelează deja într-o abilitate pe care mulți politicieni și lideri de afaceri ar invidia-o: arta persuasiunii. Modelele AI create de OpenAI, Meta, xAI și Alibaba pot convinge oamenii să își schimbe opiniile politice după mai puțin de 10 minute de conversație, potrivit unor noi studii. Pentru că fenomenul suscită îngrijorare, acestea sunt doar cele mai recente dintr-un număr tot mai mare de cercetări care arată că modelele lingvistice de mari dimensiuni (LLM) au devenit instrumente de influență extrem de puternice. Un studiu al britanicilor de la AI Security Institute (AISI), realizat în colaborare cu mai multe universități, printre care Oxford și Massachusetts Institute of Technology, demonstrează că este relativ ușor să transformi modelele AI existente — precum Llama 3 de la Meta, GPT-4, GPT-4.5, GPT-4o de la OpenAI, Grok 3 de la xAI și Qwen de la Alibaba — în mașinării persuasive puternice. Cercetătorii notează că abilitatea modelelor AI de a influența opinii nu se limitează la politică.
Un studiu publicat anul trecut de MIT și Cornell, arăta că LLM-urile reușesc să schimbe rapid opiniile persoanelor care cred în teorii ale conspirației. Alte cercetări au arătat că o conversație cu inteligența artificială poate reduce scepticismul legat de schimbările climatice sau de vaccinul HPV, dar, totodată, chatboții pot promova ideologii – în special de stânga – sau pot influența semnificativ deciziile de cumpărare. Fenomenul produce deja îngrijorare, mai ales că așteptăm generații noi de AI, mult mai performanți care, cel mai probabil, își vor îmbunătăți considerabil această capacitate de convingere.
„Modele AI sunt persuasive pentru că au capacitatea de a genera cantități mari de dovezi relevante și de a le comunica într-un mod eficient și ușor de înțeles”, a declarat David Rand, profesor de știința informației, marketing și comunicare managerială la Universitatea Cornell, care a participat la studiul recent realizat de AI Security Institute din Marea Britanie.
Foto: Unsplash
Noul studiu vine după alte cercetări care au constatat că modelele AI pot convinge mai eficient decât oamenii în anumite cazuri — ceea ce aduce îngrijorări privind potențiala utilizare abuzivă a chatboților pentru dezinformare și influențarea opiniei publice. Această capacitate, combinată cu tendința LLM-urilor de a fi lingușitoare sau excesiv de laudative, ar putea avea efecte importante, pe măsură ce tot mai mulți utilizatori integrează chatboții în viața lor de zi cu zi și îi tratează ca pe prieteni sau chiar îi consideră terapeuți, comentează Financial Times. Atașamentul față de chatboți devine chiar foarte vizibil, tendință pusă în eidență foarte bine săptămâna trecută, odată cu lansarea modelului GPT-5 al OpenAI, când unii utilizatori și-au exprimat dezamăgirea față de schimbarea „personalității” sistemului, comparativ cu versiunea anterioară de care se simțeau atașați.
Studiul citat a fost realizat prin ajustarea modelelor, folosind tehnici populare de antrenare AI, precum recompensarea răspunsurilor dorite. Cercetătorii au personalizat, de asemenea, chatboții utilizând un set de date cu peste 50.000 de conversații pe teme politice controversate, cum ar fi finanțarea NHS sau reforma sistemului de azil politic. Rezultatele au arătat că oamenii își schimbă rapid opiniile, iar efectul persistă. După conversații pe teme politice care au durat, în medie, nouă minute, GPT-4o a fost cu 41% mai persuasiv, iar GPT-4.5 cu 52% mai persuasiv decât prezentarea simplă de mesaje statice. Mulți dintre participanți și-au păstrat noile opinii. Între 36% și 42% din cazuri chiar și la o lună după discuție.
Chatboții AI au reușit să le influențeze mai mult opiniile interlocutorilor lor atunci când conversațiile le permiteau să furnizeze multe fapte și dovezi în sprijinul argumentelor evocate. Ei au fost considerați cu aproximativ 5% mai persuasivi atunci când mesajele erau personalizate în funcție de factori precum vârsta, genul, afilierea politică sau atitudinea utilizatorului față de subiectele politice înainte de test, comparativ cu mesajele nepersonalizate.
Această capacitate „ar putea fi exploatată de actori lipsiți de scrupule, care doresc, de exemplu, să promoveze ideologii politice sau religioase radicale sau să alimenteze tulburări politice în rândul adversarilor geopolitici”, avertizează cercetătorii.
Studiul confirmă rezultatele obținute, în mai, de la London School of Economics și de alte universități, care au arătat că modelele AI sunt mai eficiente decât oamenii când vine vorba de schimbarea opiniilor. În cadrul acelei cercetări, participanților li s-a prezentat un chestionar cu întrebări variind de la curiozități, la prognoze cu privire la evenimente viitoare, cum ar fi temperatura din New York. Atât oamenii, cât și chatboții au fost însărcinați să îi convingă pe participanți asupra unor răspunsuri specifice.
Cercetătorii au constatat că, pe lângă faptul că erau mai eficienți în persuasiune, LLM-urile erau și mai bune decât oamenii la inducerea în eroare a participanților. Chatboții s-au dovedit foarte eficienți și atunci când au fost încurajați să promoveze răspunsuri greșite. Principalele companii AI caută modalități de a aborda această problemă. Dawn Bloxwich, director senior pentru dezvoltare responsabilă și inovație la Google DeepMind, a declarat că persuasiunea este o zonă importantă și activă de cercetare pentru companie.
„Considerăm că este esențial să înțelegem procesul prin care AI convinge, pentru a putea construi mecanisme de protecție mai bune, care să asigure că modelele AI sunt cu adevărat utile și nu dăunătoare”, a spus Bloxwich.
Google DeepMind folosește o varietate de tehnici pentru a detecta influențarea nedorită, de la clasificatori capabili să identifice limbajul manipulator, până la metode avansate de antrenare care recompensează comunicarea rațională. OpenAI a declarat că tratează cu seriozitate riscurile legate de persuasiune, tehnici care contravin politicilor sale de utilizare. Compania nu permite campanii politice și exclude conținutul politic în procesul de rafinare a modelelor după antrenare. Însă cercetătorii notează că abilitatea modelelor AI de a influența opinii nu se limitează la politică.
Într-un studiu publicat, anul trecut, de MIT și Cornell, LLM-urile au reușit să schimbe și opiniile persoanelor care credeau în teorii ale conspirației. Alte cercetări au arătat că pot reduce scepticismul legat de schimbările climatice sau vaccinul HPV. Participanții au descris către GPT-4 de la OpenAI o teorie a conspirației în care credeau. Chatbotul a demontat-o, folosind dovezi și mesaje personalizate. Aceste conversații au redus convingerile adânc înrădăcinate în teorii ale conspirației cu 20%, iar efectul a persistat două luni mai târziu.
Chatboții pot fi folosiți și ca vânzători eficienți, a adăugat profesorul Rand de la Cornell. „Poți obține efecte semnificative asupra atitudinii față de brand, a intențiilor de cumpărare și a comportamentelor stimulate”. Această capacitate ar putea fi un avantaj pentru companii precum OpenAI și Google, care caută modalități de a monetiza modelele AI prin integrarea reclamelor și a funcțiilor de cumpărare în chatboți.
Abilitatea LLM-urilor de a influența opiniile omenilor poate acționa și în moduri subtile. Chatboții AI moștenesc părtinirile din datele pe care sunt antrenați și din modul în care sunt instruiți. Cercetători de la Universitatea Stanford au descoperit, în acest studiu din mai, că majoritatea modelelor lingvistice de top sunt percepute ca având o orientare politică de stânga. Ar fi o problemă, de vreme ce administrația Trump a promis să blocheze companiile AI „woke” să facă afaceri cu guvernul.
Măsurile de atenuare sunt importante, avertizează cercetătorii, deoarece mulți cred că modelele AI vor deveni mai convingătoare odată cu apariția generației următoare de LLM-uri mai puternice. Cel mai eficient mod de a transforma chatboții AI în instrumente de manipulare pare să fie modificarea lor special pentru acest scop după antrenarea inițială — așa cum a arătat studiul AISI.
„Chiar și actorii cu resurse computaționale limitate ar putea folosi aceste tehnici pentru a antrena și lansa sisteme AI extrem de persuasive”, au avertizat cercetătorii AISI.