Medicii deepfake, de fapt videoclipuri generate de inteligența artificială care mimează profesioniști în sănătate, apar tot mai des online.
Unii medici folosesc rețelele sociale pentru a oferi sfaturi de sănătate credibile și a discuta cercetări recente.Totuși, cei mai noi influenceri medicali nu sunt oameni reali. Acești medici fictivi promovează informații medicale false sau produse dubioase, precum uleiuri pentru căderea părului sau suplimente pentru tulburări endocrine.
Organizația non-profit Media Matters a identificat recent opt conturi TikTok care distribuiau videoclipuri suspectate a fi medici deepfake. O anchetă de anul trecut a descoperit deepfake-uri cu trei medici celebri din Marea Britanie, folosite pentru promovarea unor produse.
Institutul Baker Heart and Diabetes din Australia a avertizat că videoclipurile cu doctorii lor promovând un supliment pentru diabet nu erau reale.
Avatarurile pot fi copii fidele ale unor medici cunoscuți sau figuri fictive generate de roboți.
„Ceea ce mă impresionează este cât de convingători sunt acești medici sintetici, cu vizualuri combinate cu narațiuni captivante, dar potențial false”, a spus, pentru Medscape, Ash Hopkins, doctor și profesor asociat la Universitatea Flinders, Adelaide, Australia.
„Pot exista prejudicii serioase, pentru că, atunci când dezinformarea e prezentată astfel, poate fi greu de distins de un profesionist real”, a adăugat el.
Fenomenul nu diferă prea mult de alte escrocherii care apar odată cu noile tehnologii, mai ales cele amplificate online.
„Creșterea recentă a deepfake-urilor reflectă progresele rapide în tehnologie, permițând aproape oricui să genereze conținut sintetic realist rapid”, a explicat Hopkins.
El mai precizează că acest lucru era inevitabil.
„Stuart Russell, în cartea sa din 2019, Human Compatible, a subliniat că dacă o tehnologie precum AI poate fi folosită în scopuri dăunătoare sau financiare, probabil că va fi”, a spus Hopkins.
Cei care distribuie dezinformare medicală pot urmări confuzie, frică, discriminare, respingerea tratamentelor bazate pe dovezi sau promovarea „leacurilor miraculoase” pentru profit. Medicii reprezintă „tapul ispititor”: prezentând un deepfake ca expert de încredere, se amplifică credibilitatea produselor promovate.
„Narațiunile lor sunt construite să pară convingătoare, prin logici fabricate, testimoniale false sau aliniere cu preocupări populare”, a spus Hopkins.
„Acest conținut poate fi deosebit de periculos pentru persoane cu alfabetizare medicală limitată sau pentru cei sceptici față de îngrijirea convențională”.
Medicii deepfake fac parte dintr-un fenomen mai larg de conținut AI creat pentru a înșela consumatorii. Daniel S. Schiff, doctor și co-director al Governance and Responsible AI Lab, Purdue University, observă o creștere a reclamelor false care imită celebrități și figuri publice.
„Nu trebuie să fie foarte bune. Trebuie doar să fie suficient de convingătoare”, explică Schiff.
Primele deepfake-uri au apărut în jurul anului 2018, create prin rețele generative antagoniste. Acestea implicau două rețele neurale: generatorul, care imita imaginea, și discriminatorul, care compara creația cu realitatea.
„La acel moment, imaginile erau deja destul de convingătoare”, a spus Schiff.
Apoi, apariția modelelor de difuzie precum DALL-E, Imagen, Midjourney și Stable Diffusion a revoluționat domeniul.
Modelele de difuzie pornesc de la o imagine, asociată cu un text descriptiv, și ajustează continuu zgomotul până obțin rezultatul dorit.
„Suntem în punctul în care rețelele neurale, antrenate pe seturi mari de imagini și videoclipuri, pot produce vizualuri extrem de realiste, inclusiv mimarea fețelor și expresiilor”, a spus Hopkins.
Modelele mari de limbaj generează text și vorbire coerentă, astfel rezultând avataruri AI care pot vorbi, emoționa și se mișca realist.
Aceste tehnologii necesită input minim pentru a crea videoclipuri convingătoare. Multe modele de difuzie sunt open-source și ușor de găsit. Nu mai e nevoie de expertiză tehnică sau computere costisitoare.
„Modelele s-au îmbunătățit și sunt mai eficiente, reducând nevoia de putere de calcul mare”, a spus Christopher Doss, profesor RAND Corporation.
Avataruri AI în îngrijirea medicală
Nu doar social media folosește avataruri cu asemănare uimitoare cu profesioniștii în sănătate. Companii ca Hippocratic AI oferă furnizori virtuali pentru urmărirea pacienților și pregătirea procedurilor. Mediktor oferă asistenți medicali virtuali pentru evaluarea simptomelor. Acestea nu sunt deepfake-uri, pentru că pacienții sunt informați că interacționează cu AI.
„Unele instrumente pot fi utile, dar multe nu sunt bine evaluate și nu respectă gândirea etică atentă”, a spus Schiff.
Boții pot crește eficiența, dar nu garantează îmbunătățirea îngrijirii.
Nu presupune că ești prea inteligent pentru a fi păcălit.Un studiu din 2023 arăta că videoclipuri deepfake despre schimbările climatice au înșelat 27%-50% dintre oameni. Aceleași rezultate ar putea fi similare pentru subiecte medicale controversate.
Avatarurile mai în vârstă par mai credibile, potrivit unui studiu din iunie 2025.
Semnele subtile includ degete nefirești, mâini sau ochi neclari, simetrie exagerată, păr perfect sau bijuterii ciudate. Schiff nu recomandă să încerci să detectezi singur deepfake-urile.
„Cea mai bună apărare nu e ochiul, ci creierul. Practicați alfabetizarea media și digitală”, spune Doss.
Cel mai mare indiciu: „doctorii” nu există în altă parte online.
„Dacă nu găsești nimic despre acel doctor în afară de videoclip, probabil că nu există”, confirmă Schiff.
Hopkins subliniază nevoia de măsuri pentru a minimiza daunele și pentru a valorifica beneficiile AI emergente.
„Companiile care creează instrumente AI trebuie să asigure transparența și identificarea conținutului generat de AI”, spune Hopkins.
Platformele sociale ar putea lua măsuri proactive, dar, momentan, responsabilitatea revine utilizatorului.
„Companiile de social media se retrag de la etichetarea preventivă. Utilizatorii trebuie să se protejeze singuri”, explică Doss.