Internetul este inundat de deepfake-uri — materiale audio, foto sau video create cu ajutorul inteligenței artificiale, în care persoane apar spunând sau făcând lucruri pe care, de fapt, nu le-au făcut, aflându-se în locuri în care nu au fost sau afișând o înfățișare modificată. Aceste materiale sunt folosite deseori pentru înșelăciuni sau pentru a afecta imaginea politicienilor și a altor persoane publice.
Progresele rapide în domeniul AI au făcut ca realizarea unui deepfake realist să fie posibilă cu doar câteva apăsări de tastatură. Guvernele sunt îngrijorate și încearcă să combată fenomenul, însă lupta este dificilă. Datele companiei de verificare a identității Signicat arată că tentativele de fraudă prin deepfake-uri au crescut de peste 20 de ori în ultimii trei ani, scrie Bloomberg.
Pe 19 mai, președintele american Donald Trump a semnat „Take It Down Act”, o lege care incriminează pornografia non-consensuală generată de AI (revenge porn deepfake) și obligă platformele sociale să elimine astfel de conținuturi la cerere.
În 2024, Comisia Federală pentru Comunicații a SUA (FCC) a interzis folosirea vocilor generate de AI în apelurile automate (robocalls). Această decizie a venit după ce FCC a emis o ordonanță de încetare a activității împotriva unei companii care a creat un deepfake audio cu președintele Joe Biden, într-un apel care îi îndemna pe alegătorii din New Hampshire să nu meargă la vot.
Uniunea Europeană, prin AI Act, obligă platformele să marcheze deepfake-urile ca atare, iar China a adoptat o legislație similară în 2023. În aprilie 2025, comisarul pentru copii din Anglia a cerut interzicerea aplicațiilor de nudificare, care sunt larg răspândite online.
Aceste materiale sunt realizate cu ajutorul algoritmilor AI care învață să recunoască tipare din înregistrări video reale ale unei persoane (deep learning). Astfel, fața unei persoane poate fi inserată într-un alt video fără să pară un montaj ieftin. Manipulările devin și mai convingătoare când sunt combinate cu tehnologia de clonare a vocii, care descompune un fragment audio în bucăți mici și le reasamblează în cuvinte noi, aparent rostite de persoana originală.
Inițial, deepfake-urile erau un domeniu al cercetătorilor academici. În 2017, un utilizator Reddit numit „deepfakes” a creat un algoritm pentru a produce videoclipuri false folosind cod open-source. Reddit l-a interzis, dar practica s-a răspândit. La început, deepfake-urile necesitau materiale video și vocale reale, plus abilități avansate de editare.
Astăzi, sistemele AI generative permit crearea de imagini și videoclipuri convingătoare doar pe baza unor comenzi textuale simple.
Detectarea devine tot mai dificilă, deoarece AI folosește un volum imens de materiale de pe internet, de la YouTube la biblioteci de imagini și video. Totuși, uneori apar semne evidente: membre plasate greșit, mâini cu șase degete, discrepanțe de culoare între părți editate și needitate, nepotriviri între mișcarea gurii și sunet, detalii neclare la păr sau umbre, margini pixelate.
Pe măsură ce modelele AI se perfecționează, aceste indicii vor deveni tot mai greu de observat.
În august 2023, trolli chinezi au distribuit imagini manipulate cu incendii de vegetație în Hawaii, susținând că acestea ar fi fost cauzate de o „armă meteo” secretă testată de SUA. În mai 2023, o fotografie falsă cu Pentagonul în flăcări a provocat scăderi temporare pe piețele bursiere americane. În februarie 2023, a apărut un clip audio fals în care un candidat prezidențial nigerian părea să comploteze fraudarea alegerilor. În 2021, un video fals îl arăta pe președintele ucrainean Volodimir Zelenski ordonând soldaților să se predea Rusiei. Există și deepfake-uri inofensive, precum cele cu fotbalistul Cristiano Ronaldo recitând poezii arabe.
Riscul major este că deepfake-urile vor deveni atât de convingătoare încât va fi imposibil să se distingă realitatea de fals. Acest lucru poate fi folosit pentru manipularea piețelor financiare, compromiterea reputației politicienilor sau pentru răspândirea de dezinformări. De asemenea, deepfake-urile pot genera „revenge porn” chiar dacă nu există imagini reale, afectând în special femeile.
Un efect secundar este și faptul că persoanele surprinse în situații reale compromițătoare pot invoca apărarea deepfake pentru a nega acuzațiile.
Detectarea deepfake-urilor este dificilă, deoarece tehnologia de generare nu poate fi inversată ușor. Totuși, startup-uri precum Sensity AI (Olanda) și Sentinel (Estonia), precum și mari companii din SUA, dezvoltă tehnologii de identificare a acestor materiale.
Companii precum Microsoft au promis să includă semne digitale (watermark-uri) în imaginile generate de AI pentru a le marca ca false. OpenAI a creat tehnologii pentru detectarea imaginilor generate și pentru aplicarea de watermark-uri pe texte, deși această ultimă tehnologie nu a fost lansată public din cauza riscului de ocolire de către rău-intenționați.