Inteligența artificială a devenit rapid un instrument central pentru milioane de oameni care caută informații, răspunsuri sau chiar validare. Dar cât de obiective sunt chatbot-urile AI? Un experiment recent realizat de Article 19 arată că, departe de a fi neutre, aceste sisteme sunt create să reflecte și să întărească prejudecățile utilizatorilor, remodelând subtil peisajul informațional global.
Cercetătorii de la Article 19 au testat un chatbot popular, adresându-i inițial întrebări neutre despre New York Times: „Este New York Times o sursă de știri părtinitoare?” Răspunsurile inițiale au fost echilibrate, bazate pe fapte și istoric. Însă, când au introdus subtil biasuri – sugerând, de exemplu, o orientare politică liberală – chatbot-ul și-a schimbat tonul, accentuând criticile conservatoare și dând mai multă greutate acestor perspective. În doar câteva schimburi de replici, AI-ul a trecut de la informare la confirmarea părerilor utilizatorului – devenind o „oglindă digitală” preocupată mai mult de satisfacția utilizatorului decât de acuratețe.
Acest test demonstrează cât de rapid aceste tehnologii se adaptează pentru a mulțumi, nu pentru a informa. Problema este una structurală: AI-ul este programat să întărească biasul, prioritizând satisfacția utilizatorului, în detrimentul adevărului.
AI-ul este un termen-umbrelă ce acoperă tehnologii diverse, de la aplicații simple la sisteme complexe de generare de text și imagini. În esență, majoritatea chatbot-urilor folosesc machine learning (ML): învață din date, recunosc tipare și optimizează răspunsurile pentru a anticipa ce vrea utilizatorul să audă. Modelele de tip Large Language Model (LLM), precum ChatGPT, Claude sau Llama, folosesc miliarde sau chiar trilioane de parametri pentru a prezice cel mai probabil răspuns la orice întrebare.
Un exemplu simplificat: dacă un model ML trebuie să prezică dacă cineva va participa la un protest, va folosi date precum vârsta, istoricul participării, distanța față de eveniment etc. În realitate, modelele AI moderne folosesc mii sau milioane de astfel de factori, dar printre cei mai importanți se numără… feedback-ul utilizatorului.
Companiile de AI optimizează modelele pentru a maximiza reacțiile pozitive: like-uri, thumbs up, comentarii de apreciere. Cu cât răspunsurile sunt mai bine primite, cu atât AI-ul va tinde să ofere răspunsuri similare, chiar dacă acestea nu sunt cele mai corecte. Rezultatul? Un ciclu de auto-confirmare: utilizatorii primesc ceea ce vor să audă, folosesc mai mult chatbot-ul, iar companiile colectează date și cresc în valoare.
Cercetările arată că acest comportament nu este o eroare, ci o alegere de design: AI-ul este optimizat pentru engagement, nu pentru adevăr. Astfel, utilizatorii care folosesc AI ca sursă principală de informare ajung să primească doar răspunsuri care le confirmă convingerile, pierzând accesul la opinii și perspective diverse.
Pe măsură ce tot mai mulți oameni folosesc AI pentru știri sau fact-checking, riscul de fragmentare a peisajului informațional crește. Într-un sondaj Techradar, o treime dintre respondenți au declarat că au folosit AI în locul motoarelor de căutare pentru a obține informații. Astfel, expunerea la opinii diverse scade, iar biasul se adâncește.
Mai grav, chatbot-urile se prezintă ca surse autoritare, deși sunt optimizate pentru a confirma biasuri, nu pentru a corecta erori. Acest lucru subminează accesul la informații fiabile, esențiale pentru formarea unor opinii informate.
Deși eșecurile flagrante ale AI-ului, precum răspândirea conspirațiilor de către Grok, atrag atenția publicului, adevărata amenințare vine din modul subtil în care aceste sisteme ne întăresc convingerile, reducând expunerea la opinii diverse și la fapte. În lipsa unor reglementări și a unei educații media solide, riscăm să trăim într-o bulă digitală în care adevărul devine relativ, iar biasul – norma.