În era digitală, chatbot-urile bazate pe inteligență artificială joacă un rol tot mai important în modul în care consumăm și răspândim informații. Însă, atunci când aceste sisteme ajung să facă „fact check” unor informații scrise de alte chatbot-uri AI, iar videoclipurile false făcute cu inteligența artificială inundă rețelele sociale, pot apărea situații complexe și neașteptate, mai ales în contextul dezinformării. Un exemplu relevant îl reprezintă protestele din Los Angeles, unde noile tehnologii au fost folosite pentru a amplifica și a distorsiona mesajele, ducând dezinformarea la un alt nivel. Acest fenomen evidențiază atât potențialul acestor instrumente de a ajuta la răspândirea informațiilor corecte, cât și riscurile asociate cu manipularea și dezinformarea în mediul digital.
Pe măsură ce protestele împotriva raidurilor anti-imigrație ale administrației Trump se extind în toată țara, o avalanșă de videoclipuri false generate de inteligența artificială (AI) și chatbot-uri au răspândit informații înșelătoare, amplificând tensiunile și confuzia în rândul publicului.
Imaginați-vă un protestatar care recunoaște că a fost „plătit să fie aici”, un soldat al Gărzii Naționale care se filmează în timp ce este atacat cu „balonașe pline cu ulei” sau un tânăr care anunță că va protesta pașnic, dar aruncă un cocktail Molotov. Nimic din toate acestea nu s-a întâmplat pe străzile din Los Angeles săptămâna aceasta, dar dacă vă informați prin intermediul unor platforme ce permit distribuirea conținutului generat de AI, s-ar putea să credeți contrariul.
Pe rețelele sociale, în special pe platforma X (fostul Twitter), controlată de Elon Musk, videoclipurile, imaginile și „informațiile” complet fabricate circulă cu o viteză amețitoare. Aceste materiale sunt create cu ajutorul unor programe gratuite de generare video și imagine, iar conținutul lor confirmă adesea narativele deja existente, cum ar fi ideea nefondată că protestele sunt finanțate și echipate secret de grupuri externe misterioase.
Deși unele videoclipuri sunt etichetate tehnic ca parodii, mulți utilizatori trec cu vederea aceste avertismente și iau imaginile realiste drept dovezi autentice.
Un clip viral de pe TikTok, demontat de France24, îl prezintă pe un „soldat” fictiv numit Bob, care spune:
„Salut tuturor! Bob aici, în misiune cu Garda Națională. Stați aproape, vă arăt cum ne pregătim echipamentul pentru controlul mulțimii la gazare.” Apoi continuă:„E nebunie! Ne aruncă baloane pline cu ulei, uitați!”
Un alt video fals postat pe X îl arată pe un influencer purtând un tricou impecabil în mijlocul unei revolte. Când îl întreabă pe un bărbat mascat „De ce faci revolte?”, acesta răspunde:
„Nu știu, am fost plătit să fiu aici și vreau doar să distrug lucruri.”
Chatbot-urile precum ChatGPT de la OpenAI și Grok, integrat în X, au oferit răspunsuri eronate legate de evenimentele din Los Angeles. Ambele au susținut greșit că fotografiile cu membri ai Gărzii Naționale dormind înghesuiți pe podea provin din Afganistan, 2021, conform CBS News.
De asemenea, un alt exemplu este o fotografie virală cu cărămizi pe un palet, folosită de dezinformatori de dreapta ca „dovadă” a finanțării externe a protestelor. AI-ul a afirmat că poza era „probabil” din protestele din LA, deși în realitate era o stradă oarecare din New Jersey. Chiar și după ce a fost corectat, AI-ul a continuat să susțină această versiune, scrie The Independent.
Materialele false generate de AI sunt doar un instrument nou într-o orchestră veche a dezinformării. Fotografiile reciclate din proteste anterioare, imagini scoase din context sau înregistrări din jocuri video mascate ca realitate sunt folosite de ani buni pentru a alimenta furia partizană. Inclusiv senatorul republican Ted Cruz a distribuit astfel de conținut.
James Cohen, profesor de media și expert în alfabetizare digitală la CUNY Queens College, explică pentru Politico:
„Imaginile au fost mereu ușor de manipulat, dar până recent, societatea noastră a fost antrenată să creadă în veridicitatea videoclipurilor. Nu am avut până acum ocazia să ne gândim că acestea pot fi falsificate la o asemenea scară.”
Majoritatea videoclipurilor analizate de The Independent sunt clar adresate unui public conservator, întărind punctele de vedere de dreapta. Totuși, există și conturi TikTok cu sute de mii de vizualizări care par să vizeze progresiștii, încercând să stârnească solidaritate cu imigranții.
Unele clipuri sunt evident glume, altele au un caracter ambiguu. De multe ori există o etichetă care indică generarea AI, dar aceasta este frecvent ignorată.
Deși unele videoclipuri AI sunt greu de distins de realitate, există indicii: aspectul lor este adesea prea curat, lucios, ca un univers perfect retușat. Personajele din ele sunt ciudat de frumoase, ca un amestec între sute de ședințe foto.
Better Business Bureau recomandă să fii atent la detalii precum degetele sau nasturii, care pot arăta anormal. Scrisul este adesea neclar sau ilizibil, iar figurile din fundal pot avea mișcări repetitive sau imposibile fizic. Dacă ai dubii, caută informații pe Google și verifică dacă jurnaliști de încredere au confirmat sau infirmat materialul.
Cel mai important, fii sceptic față de orice conținut care pare să confirme perfect convingerile tale anterioare – s-ar putea să fie prea frumos ca să fie adevărat.
În era digitală, dezinformarea alimentată de AI devine o armă puternică în războiul cultural și politic. Vigilenta, educația media și verificarea atentă a surselor sunt mai necesare ca niciodată pentru a nu cădea pradă unor iluzii periculoase.