Într-o lume în care inteligența artificială devine arma preferată a hackerilor, securitatea cibernetică nu mai ține pasul aproape deloc. China avansează rapid în domeniul AI, iar experții avertizează că Occidentul riscă să piardă controlul.
În doar câteva luni, diferența de performanță dintre modelele de inteligență artificială din China și cele din SUA s-ar putea evapora complet. Potrivit unui raport al grupului Insikt, parte din Recorded Future, modele chineze precum DeepSeek sunt cu doar 3-6 luni în urma celor americane și evoluează rapid, susținute de subvenții și o colaborare eficientă între guvern, industrie și mediul academic.
Pe lângă aceste atuuri, China valorifică intens codul open source și accelerează inovația în mod eficient și economic. În plus, companiile chineze împrumută rapid idei și tehnologii de la rivalii americani și autohtoni și optimizează costurile pentru a rămâne competitive. Nu este însă un tablou complet curat: spionajul cibernetic și furtul de proprietate intelectuală joacă un rol semnificativ în avansul AI-ului chinezesc, avertizează experții.
În ciuda acestor progrese, China încă suferă la capitolul hardware, în special în producția de cipuri AI de înaltă performanță, domeniu în care SUA deține un avantaj semnificativ. Însă Beijingul este determinat să depășească acest obstacol și este doar o chestiune de timp până când acest lucru se va întâmpla, scrie Dark Reading.
În timp ce hackerii folosesc modele AI pentru a lansa atacuri automate, greu de detectat, echipele de securitate cibernetică încearcă să țină pasul cu unelte învechite. Potrivit lui Satyam Sinha, CEO al Acuvity, este nevoie de o reformă completă a arhitecturii de securitate, bazată pe AI deschis și pe o colaborare activă cu mediul academic, lucruri care lipsesc cu desăvârșire în Occident.
Mai mult, în SUA modelele AI sunt închise, ceea ce limitează inovarea și împiedică schimbul de informații utile pentru apărarea cibernetică. Situația este și mai gravă în contextul în care modelele open source existente sunt pline de coduri malițioase, exploatabile de către atacatori. Așadar, nu doar inovația lipsește, ci și încrederea în ceea ce există deja.
Un exemplu alarmant este fenomenul deepfake-urilor. Potrivit Kris Bondi, cofondator Mimoto, „tehnologia de detecție a deepfake-urilor e bună, dar adversarii evoluează în același ritm. E o cursă de înarmare în care nimeni nu ia pauză.” Bondi atrage atenția asupra faptului că cel mai mare pericol pentru securitate este greutatea cu care sunt adoptate soluțiile defensive AI.
Experții sunt categorici: nu mai este suficient să reacționezi, trebuie să prevezi și să experimentezi constant, utilizând AI pentru a lupta cu AI. Dave Tyson, CIO la Apollo Information Systems, spune că experții trebuie să devină mai conștienți de riscurile personale și să se întrebe: „Ce poate face AI împotriva mea și cum mă pot apăra eficient?”
Printre soluțiile propuse de specialiști pentru consolidarea securității cibernetice în era AI se află: