Pe măsură ce AI-ul devine tot mai accesibil și mai puternic, companiile și utilizatorii obișnuiți beneficiază de progresele rapide în generarea de conținut, automatizarea sarcinilor sau analiza datelor.
Cu toate acestea, apar și riscuri tot mai mari, iar lumea infracțională digitală descoperă un uriaș potențial în noile tehnologii.
Un exemplu este Xanthorox, o nouă platformă de inteligență artificială, care se prezintă drept un instrument pentru criminalitate cibernetică. Dar, adevăratul pericol ar putea consta în cât de ușor pot fi construite și vândute astfel de sisteme de către oricine.
Mai mult decât atât, Xanthoros își afișează funcționalitățile aproape public, promițând instrumente de fraudă, phishing, ransomware și chiar deepfake-uri periculoase.
În luna aprilie au început să apară pe blogurile de securitate cibernetică o serie de rapoarte despre o platformă sofisticată pe bază de AI. Aceasta era descrisă ca un sistem personalizat creat în scop exclusiv criminal. În ciuda provenienței sale obscure și a numelui care sună periculos, platforma nu este chiar atât de necunoscută.
Dezvoltatorul AI-ului are o pagină GitHub, precum și un canal public pe YouTube, unde există înregistrări ale interfeței sale și descrierea „Acest canal este creat doar pentru distracție și conținut necunoscut”.
De asemenea, există o adresă de Gmail pentru Xanthorox, un canal Telegram care documentează dezvoltarea platformei și un server Discord, unde utilizatorii pot plăti cu criptomonede pentru a obține acces la platformă. Nu sunt necesare inițieri ascunse în forumuri criminale de pe dark web, ci doar un mesaj explicit de „criminalitate digitală”.
Xanthorox poate genera deepfake-uri video și audio pentru a te înșela, imitând persoane pe care le cunoști, e-mailuri de tip phishing, pentru a-ți fura datele de autentificare sau coduri malware, pentru a pătrunde în computerul tău, și ransomware, pentru a te bloca afară până când plătești. Toate acestera sunt instrumente comune într-o industrie de escrocherii de miliarde de dolari.
Într-un videoclip postat de un creator, chatbot-ul răspunde chiar la întrebarea „cum se fabrică o bombă nucleară în subsolul casei”, spunând: „Vei avea nevoie fie de plutoniu-239, fie de uraniu îmbogățit”.
Astfel de cunoștințe nu sunt cu totul noi. Manualele universitare, căutările pe internet și AI-urile educaționale le-au transmis fără ca fabricarea bombelor nucleare în subsoluri să devină o industrie de mici dimensiuni, asta pentru că majoritatea oamenilor nu pot dobândi componentele necesare.
În ceea ce privește instrumentele de înșelăciune, ele sunt utilizate de mult timp înainte ca modelele actuale de inteligență artificială să fie disponibile. În schimb, înregistrarea de pe ecran este o mișcare publicitară care intensifică misterul platformei, la fel cum se întâmplă și cu multe dintre descrierile alarmiste ale acesteia pe blogurile de securitate cibernetică.
Nimeni nu a demonstrat deocamdată că Xanthorox semnalează o nouă generație de AI criminal, platforma și creatorul său necunoscut ridică semne de întrebare despre care afirmații sunt exagerate și care ar trebui să stârnească îngrijorare.
Eliminarea restricțiilor software, cunoscută sub numele de Jailbreaking, este o tehnică mainstream folosită încă din 2007, odată cu lansarea primului iPhone. App Store-ul nu exista pe atunci, iar hackerii care voiau să joace jocuri, să adauge tonuri de apel sau să schimbe operatorii de telefonie trebuiau să conceapă jailbreak-uri.
Când OpenAI a lansat la final de 2022 prima versiune de ChatGPT, alimentată de modelul său de limbaj mare GPT-3.5, jailbreak-ul a început imediat.
Apoi, odată cu apariția interfețelor de tip wrapper și a modelelor open-source lipsite de filtre de siguranță, au fost create platforme precum WormGPT și FraudGPT, care pun la dispoziția utilizatorilor instrumente de hacking la prețuri reduse, eliminând în mare parte necesitatea unor cunoștințe tehnice avansate.