Inteligența artificială generativă schimbă complet modul în care informațiile sunt produse și consumate. Aceasta afectează din ce în ce mai mult încrederea în mass-media.
Astăzi, aproape oricine poate crea imagini și videoclipuri false care par impecabil reale. Această tehnologie face ca delimitarea dintre conținutul autentic și cel fabricat să fie tot mai dificilă, iar acest fenomen influențează negativ credibilitatea informațiilor publice.
Noile programe de inteligență artificială permit generarea rapidă a unor materiale vizuale false, dar convingătoare. În România sunt vestite videoclipurile în care fostul premier Marcel Ciolacu apare într-un clip fals unde promovează serviciile companiei Hidroelectrica. Acest material a fost distribuit și chiar sponsorizat pe Facebook pentru a-i crește vizibilitatea. Astfel de materiale pot induce publicul în eroare, iar încrederea populației în ceea ce mass-media oferă scade constant. Potrivit experților, această situație creează o stare de neîncredere generalizată, deoarece materialele video sau audio pot fi manipulate ușor.
Rețelele de știri și platformele de social media sunt cele mai afectate, întrucât materialul fals poate fi distribuit pe scară largă înainte de verificare. De exemplu, în timpul alegerilor din SUA, au circulat videoclipuri generative ce arătau anumite evenimente neverificate, care au fost preluate rapid și amplificate. Acest lucru pune sub presiune redacțiile, afectând grav reputația instituțiilor de presă. În fața riscurilor de a difuza conținut manipulator, încrederea în mass-media este tot mai greu de menținut, iar publicul devine din ce în ce mai suspicios.
Instrumentele tradiționale de fact-checking nu mai pot detecta ușor clipurile și imaginile produse cu inteligență artificială. De exemplu, platforme de verificare precum Snopes și FactCheck folosesc acum algoritmi avansați de detectare a deepfake-urilor, dar tehnologia falsificării evoluează rapid. Mai mult, există riscul ca jurnaliștii să fie depășiți de complexitatea materialelor manipulative, ceea ce subminează în mod direct eforturile de informare corectă și menținerea încrederii în mass-media.
Pentru a combate fenomenul, companii media și organizații specializate implementează tehnologii de ultimă generație. De exemplu, BBC a lansat un proiect propriu de inteligență artificială pentru a identifica conținutul generativ fals. În ciuda acestor măsuri, populația trebuie informată constant deoarece etica și încrederea în mass-media sunt esențiale. De asemenea, organizații ca International Fact-Checking Network (IFCN), parte a Poynter Institute, coordonează inițiative globale pentru combaterea dezinformării. Pe lângă dezvoltarea tehnologică, educația publicului despre pericolele materialelor generate artificial devine esențială pentru a menține un dialog transparent în spațiul informațional.
Un caz celebru a fost crearea unui clip fals cu actorul Tom Cruise care a circulat pe TikTok în 2021, realizat cu ajutorul inteligenței artificiale. Chiar și jurnaliști cunoscuți au fost păcăliți de această tehnologie, ceea ce a crescut alarmant îndoiala în veridicitatea conținutului media. În alte cazuri, organizații extremiste au folosit deepfake-uri pentru a răspândi știri false și a crea tensiuni sociale, slăbind astfel încrederea în mass-media.
Inteligența artificială generativă este un instrument puternic, dar folosit fără responsabilitate, poate submina fundația încrederii în jurnalism și rețelele media. Întregul ecosistem informațional trebuie să se adapteze rapid la noile realități tehnologice pentru a asigura credibilitatea și integritatea informației.