Inteligența artificială conversațională acaparează rapid spațiul digital, devenind instrumentul preferat de milioane pentru accesul la informații, știri și opinii de ultim moment. Această ascensiune nu a trecut neobservată de experții în securitate, care semnalează că hackerii ruși caută modalități de a introduce materiale propagandistice direct în datele de antrenament ale acestor sisteme AI, cu scopul de a manipula subtil răspunsurile oferite utilizatorilor.
Creșterea popularității chatboților este susținută de cifre concrete: între ianuarie și mai, ChatGPT-ul de la OpenAI a direcționat 25 de milioane de utilizatori către site-uri de știri, față de doar 1 milion anul anterior, conform datelor Similarweb. Totuși, același raport semnalează că aproape 69% dintre căutările de știri sunt acum „zero-click”, mai ales după lansarea AI Overviews de către Google în mai 2024. Sumarizările automate plasate deasupra rezultatelor lasă cititorii fără impulsul de a accesa sursa originală, ceea ce a redus traficul organic către site-urile de știri de la un vârf de 2,3 miliarde la 1,7 miliarde.
Problemele de acuratețe nu lipsesc. În decembrie, BBC a protestat către Apple după ce un mesaj generat automat de Apple Intelligence și trimis pe iPhone conținea titlul fals că BBC ar fi relatat despre un suspect de crimă care s-a sinucis, lucru care nu era adevărat.
Din ce în ce mai multe dovezi arată că indivizi, organizații sau chiar state ostile își concentrează eforturile pe influențarea modelelor AI de la sursă. Un raport al Royal United Services Institute din Marea Britanie, consultat de Financial Times, arată că hackerii ruși caută activ metode de a introduce materiale de propagandă sau conținut părtinitor în seturile de date folosite la antrenamentul modelelor AI, pentru a le distorsiona rezultatele. Raportul subliniază:
„Această tactică reprezintă o schimbare, de la țintirea directă a publicului, la influențarea subtilă a instrumentelor de care publicul se folosește.”
Proiectul American Sunlight estimează că rețeaua rusă Pravda publică anual circa 3 milioane de articole de propagandă, promovate agresiv pe platforme precum X, Telegram și Bluesky. Cercetări recente arată că modelul ChatGPT-4o de la OpenAI a citat conținut din Pravda ca răspuns la cinci din șapte solicitări pe subiecte controversate. Se anticipează că forme mai avansate de verificare a faptelor și raționament vor fi necesare pentru a contracara această problemă.
Sophia Freuden, Nina Jankowicz și Gary Marcus spun:
„În acest timp, sistemele actuale de inteligență artificială, care reproduc și repetă fără discernământ, își compromit viitorul (și bazele de date de antrenament) de fiecare dată când repetă propagandă fără să analizeze.”
Vidhya Ramalingam, co-fondatoare și CEO Moonshot, susține că este dificil să fie eliminată complet manipularea la sursă, având în vedere ritmul accelerat al schimbărilor tehnologice. Ea afirmă:
„Trebuie să anticipăm problema prin educația publică.”
În acest scop, Moonshot a desfășurat campanii de conștientizare „prebunking”, alături de Google, care au ajuns la peste 120 de milioane de persoane în Europa.
Similar cu modul în care oamenii au învățat să privească suspicios internetul, rețelele sociale și platformele de mesagerie, utilizatorii trebuie să cultive aceeași atitudine față de răspunsurile generate de chatboturi. Rămâne la latitudinea fiecăruia să verifice individual corectitudinea informațiilor, fie că este vorba de subiecte despre Uniunea Europeană sau despre dezinformarea rusească. După cum avertizează și eurobotul: „Vă rugăm să faceți propria verificare.”