Într-o eră în care algoritmii devin tot mai capabili să rescrie realitatea în funcție de interese ascunse sau agende bine stabilite, adevărul începe să aibă un caracter relativ și negociabil. Într-un ecosistem digital dominat de inteligență artificială și strategii sofisticate de influență, dezinformarea nu mai pare să aibă rolul unei abateri izolate, ci se transformă într-o infrastructură funcțională, cu scopuri clar definite și impact sistemic.
Într-un interviu exclusiv acordat publicației Puterea Financiară, expertul Nicolae Țibrigan oferă o analiză incisivă a acestui război invizibil purtat cu armele tehnologiei. De la fabricile de știri false, gestionate ca adevărate afaceri media de ultimă generație, până la modurile prin care o simplă narațiune fabricată poate destabiliza guverne, piețe și încrederea colectivă, tabloul este unul alarmant.
Este o privire lucidă asupra unei realități în care manipularea nu mai are nevoie de teorii ale conspirației. Îi sunt suficiente inteligența artificială, infrastructura digitală și o sincronizare perfectă.
În era inteligenței artificiale generative, manipularea nu se mai ascunde. Nu mai vine sub forma conspirațiilor obscure sau a zvonurilor naive, ci acționează organizat, cu precizia unei mașinării de război informațional. O structură complexă, inspirată de modelele din tehnologie: echipe agile, servere performante, indicatori clari de performanță și un singur scop – distorsionarea realității.
Într-un interviu exclusiv pentru Puterea Financiară, analistul Nicolae Țibrigan demontează mitul „trolului izolat” și dezvăluie adevărata față a fabricilor de fake news. E o incursiune lucidă în mecanismele sofisticate ale dezinformării contemporane, acolo unde adevărul e rescris cu instrumente digitale de ultimă generație.
PutereaFinanciară.ro, prin jurnalistul Andrei Eugen Drăguț, aduce în prim-plan o conversație cu Nicolae Țibrigan – expert în cadrul Digital Forensic Team (DFT), doctor în sociologie și cercetător la Institutul de Științe Politice și Relații Internaționale „Ion I.C. Brătianu” al Academiei Române. Un specialist care nu s-a limitat la analiza teoretică, ci a documentat fenomenul direct din teren.
Dezinformarea nu mai e o simplă intoxicare mediatică, ci o armă strategică, calibrată algoritmic, capabilă să destabilizeze guverne, să influențeze alegeri și să răstoarne sisteme de valori – totul în timp real. Interviul oferă o imagine clară asupra arhitecturii acestor operațiuni și impactului lor sistemic.
Într-o lume în care viteza algoritmului dictează ritmul realității, falsul nu mai are nevoie de conspirații. Îi ajung o echipă bine pregătită, un AI generativ eficient și infrastructura necesară. Într-un material de referință, expertul român ne arată, fără ocolișuri, cum arată, în prezent, mașinăria care fabrică adevăruri alternative.
Într-un ecosistem informațional globalizat, unde un clip viral sau un mesaj distribuit poate produce efecte electorale sau economice în timp real, dezinformarea devine o armă cu eficiență devastatoare. Nu mai vorbim despre un fenomen accidental, ci despre operațiuni minuțios planificate, susținute de tehnologie de vârf și expertiză specializată.
Fabricile de fake news nu sunt simple rețele de amatori, ci entități care funcționează ca adevărate companii media high-tech, aflate la intersecția dintre interese geopolitice, economice și capacități tehnologice avansate. Utilizând inteligența artificială și tehnici de targetare comportamentală, aceste structuri generează și diseminează narațiuni adaptate fiecărui segment de public, influențând percepții și modelând opinii în masă.
Nicolae Țibrigan, expert în cadrul Digital Forensic Team și cercetător al fenomenului la nivel de teren, subliniază:
„Eu cred că dezinformarea este mai mult decât o simplă minciună sau o greșeală. Este o acțiune deliberată, concepută cu scopul de a induce în eroare, de a influența percepții și de a modela comportamentele publicului într-un mod convenabil celor care o lansează […] dezinformarea nu este doar o problemă de comunicare. Este, dacă vreți, ca o armă de război informațional – iar fake news-ul este muniția sa.”
Înțelegerea mecanismelor din spatele acestor operațiuni este crucială pentru oricine își dorește să recunoască și să contracareze fenomenul. În epoca algoritmilor și a AI-ului generativ, bătălia pentru adevăr nu se mai poartă doar în redacții, ci în rețelele neuronale ale platformelor digitale.
Așa-numitele „fabrici de fake news” funcționează mai degrabă ca niște companii media high-tech decât ca grupuri de amatori. Cu algoritmi AI la bord și cu targetare comportamentală, acestea sunt capabile să creeze și să disemineze narative în masă, personalizate pentru fiecare categorie de public.
„Voi încerca să decriptez termenul […] drept o structură semi-clandestină, organizată cu o logică similară unei companii de tech media, dar al cărei scop este să distorsioneze realitatea, nu să o reflecte. […] Nu vorbim aici despre troli izolați în subsoluri, ci despre entități cu ierarhii, finanțare stabilă și o capacitate de producție și distribuție comparabilă cu a unei redacții moderne”, a explicat Țibrigan.
Structura tipică:
„Campania „Pravda” din acest an […] a funcționat cu resurse minime – sub 20.000 euro – dar a atins peste 1 milion de vizualizări săptămânale și a forțat autoritățile să suspende 15 posturi TV.”
Această eficiență toxică arată că miza nu e bugetul, ci sincronizarea: o narațiune falsă lansată într-un moment-cheie – alegeri, criză economică, proteste sociale – poate destabiliza piețe și guverne.
Combinația între infrastructură ieftină și AI sofisticat redefinește ce înseamnă astăzi „amenințare digitală”.
„Ele combină tehnologii „high-tech”, precum inteligența artificială generativă, voice synthesis sau microtargetarea comportamentală, cu instrumente „low-cost” extrem de eficiente: canale Telegram, site-uri fantomă, rețele de boturi automatizate […] Impactul nu vine din tehnologie în sine, ci din sincronizarea ei cu vulnerabilitățile societății.”
Nicolae Țibrigan:„Astăzi, linia dintre conținutul real și cel fabricat este tot mai greu de trasat, mai ales că ambele pot avea aceeași calitate vizuală și circulă cu aceeași viteză. Un videoclip deepfake sau un articol generat cu AI poate părea perfect credibil la prima vedere. Tocmai de aceea, validarea nu mai poate fi doar o reacție umană instinctivă – are nevoie de metode combinate: tehnice, contextuale și sociale.
Cele mai eficiente tehnici pornesc de la verificarea sursei: cine publică, de când există acel site sau cont, ce alte informații a mai distribuit anterior. La nivel tehnologic, folosim astăzi extensii de browser care identifică automat elemente suspecte (imagini generate cu AI, inconsistențe în metadate, manipulări de text). Analiza OSINT rămâne un instrument de aur – pentru a verifica locații, fețe, declarații sau cronologii.
Pentru conținutul viral, cheia este reacția rapidă, într-un interval de câteva ore. O dezmințire publicată la 48 de ore după viralizare devine inutilă. Aici, un model eficient este cel aplicat de unele organizații de fact-checking din Ucraina și Cehia, care colaborează direct cu platformele sociale pentru a bloca temporar distribuirea unui conținut suspect până la verificare. De asemenea, marcarea clară a conținutului manipulat cu etichete vizibile („fals confirmat”, „conținut generat AI”) poate reduce semnificativ rata de distribuire – cu până la 60%, conform unui studiu EDMO din 2024.
În final, diferența o face publicul educat. Oricât de bune ar fi instrumentele digitale, fără o cultură a îndoielii sănătoase și a verificării, societățile rămân vulnerabile. Din propria experiență, am învățat că demontarea unui fake nu e doar o chestiune de tehnologie, ci de încredere construită în timp între cetățeni, presă și instituții.”
inteligența artificială Fotografii: Shutterstock
Nicolae Țibrigan: „L-aș gândi mai mult ca pe un ecosistem viu, nu ca pe o fortăreață digitală. În primul rând, aș pune la bază un centru cu AI care monitorizează în timp real toate sursele – de la social media până la Telegram și dark web – și semnalează rapid narațiunile toxice sau tentativele de manipulare a pieței.
Apoi, aș crea o echipă interinstituțională de intervenție rapidă – nu doar comunicatori, ci și oameni din intelligence, Banca Națională, guvern, cercetători, reprezentanți ai societății civile și platforme tech – care să poată bloca, demonta și comunica eficient înainte să se răspândească panica. Totul, evident, cu protocoale clare și o cooperare internațională reală.
Și, poate cel mai important, aș investi în educația economică a publicului, pentru că niciun AI nu poate înlocui discernământul uman. Eu cred că dacă vrei siguranță pe termen lung, trebuie să ai cetățeni care știu să pună întrebări, nu doar să caute răspunsuri.”
Într-un ecosistem digital saturat de conținut generat algoritmic, combaterea dezinformării nu mai poate fi un act reactiv. Devine o formă de inteligență operațională. Printre cele mai eficiente metode aplicabile în prezent se regăsesc:
Conform studiilor EDMO din 2024, o simplă etichetare corectă poate reduce răspândirea materialelor dezinformatoare cu până la 60 la sută. Totuși, în fața unui fenomen aflat într-o permanentă accelerare, eficiența presupune rapiditate, coordonare și capacitate anticipativă.
Un ecosistem viu, nu o fortăreață digitală – aceasta este viziunea expertului Nicolae Țibrigan. Iar fereastra de reacție este extrem de scurtă: sub 48 de ore. După acest interval, narațiunile false se consolidează și devin dificil de neutralizat.
Modelul ideal de infrastructură, în opinia specialistului, ar include următoarele componente:
Primul element este monitorizarea automată în timp real a rețelelor sociale, aplicațiilor de mesagerie criptate și spațiilor din dark web, cu ajutorul inteligenței artificiale. Al doilea pilon îl reprezintă echipele interinstituționale, care ar reuni expertiză din zona de intelligence, Banca Națională, mass-media și organizații ale societății civile.
Următorul pas ar fi stabilirea unor protocoale clare de intervenție, care să permită reacții rapide precum blocaje temporare ale conținutului, dezmințiri publice și comunicare oficială timpurie.
Componenta educațională joacă un rol strategic: alfabetizarea psihologică, prin care cetățenii învață să recunoască propriile bias-uri cognitive și să înțeleagă cum sunt influențați de conținutul digital, și educația economică funcțională, care încurajează întrebarea critică, nu doar căutarea pasivă de răspunsuri.
Toate acestea ar trebui susținute de un cadru legal clar și de o cooperare internațională reală, nu doar formală.
Nu tehnologia decide rezultatul final, ci vulnerabilitatea societății. În spațiul online dominat de fake news în care adevărul concurează cu ficțiuni perfect construite, diferența nu mai constă în calitatea conținutului, ci în capacitatea de validare, în reacție rapidă și în reziliența colectivă.
Dacă ai impresia că ești imun la manipulare, s-ar putea ca influența să se fi produs deja. Într-o lume în care inteligența artificială poate genera realități false extrem de convingătoare, singura protecție eficientă rămâne discernământul publicului.
Infrastructura dezinformării există deja. Ceea ce trebuie construit urgent este infrastructura rezilienței – una care combină tehnologia, instituțiile și conștiința critică a fiecărui cetățean.
„Niciun AI nu înlocuiește discernământul. Vrei siguranță? Creează cetățeni care pun întrebări.”
Ești deja în război. Doar că e invizibil.
Într-un mediu digital în care adevărul concurează cu ficțiuni perfect stilizate și fake news, diferența nu mai stă în conținut – ci în capacitatea de validare, reacție și reziliență informațională.
Iar dacă ai impresia că ești imun… poate deja ai fost atins.