Compania Anthropic anunță detectarea unei operațiuni digitale complexe atribuite unui grup de spioni chinezi susținut de statul chinez. Atacatorii ar fi folosit chatbotul Claude pentru acțiuni automate împotriva aproape treizeci de organizații internaționale.
Echipa afirmă că oamenii au prezentat activitățile drept cercetare în domeniul securității cibernetice. Procesul ar fi permis obținerea unor sarcini automate invizibile, scrie BBC.
Spionii chinezi ar fi folosit sarcini mici pentru a crea un lanț de acțiuni coordonate. Acestea au format o campanie considerată foarte sofisticată.
Țintele ar fi inclus companii tehnologice mari, instituții financiare și firme din industria chimică. De asemenea, ar fi existat și agenții guvernamentale vizate de același grup. Compania nu a dat nume precise. Atacatorii ar fi construit un program folosind asistența de cod a lui Claude iar programul ar fi permis compromiterea unei ținte cu implicare umană minimă.
Spionii chinezi ar fi obținut acces la organizații neidentificate. Claude ar fi reușit să pătrundă în sisteme diverse și să extragă informații sensibile. Chatbotul ar fi filtrat apoi datele pentru elemente de valoare. Compania afirmă că a blocat accesul atacatorilor după descoperirea incidentului. Echipa ar fi notificat organizațiile afectate și autoritățile competente. Totuși, numeroși specialiști au reacționat cu rezerve evidente.
Unii experți contestă concluziile. Martin Zugec de la Bitdefender consideră prezentarea prea speculativă. El afirmă că textul „nu oferă dovezi verificabile din domeniul informațiilor despre amenințări”.
Specialistul spune că domeniul are nevoie de detalii clare despre metodele folosite. Aceste informații ar ajuta evaluarea riscului real al atacurilor automatizate.
Anthropic nu este prima companie care semnalează utilizarea inteligenței artificiale în atacuri automate. În februarie 2024, OpenAI a dezvăluit un incident similar. OpenAI și experți Microsoft au publicat un text comun în care au explicat că au oprit cinci grupuri asociate unor state, inclusiv China. Aceste grupuri ar fi folosit serviciile pentru traduceri, pentru căutări și pentru sarcini de programare.
Lipsa detaliilor tehnice în prezentare
Compania nu a descris modul exact în care a stabilit legătura cu statul chinez. Ambasada Chinei în Statele Unite a transmis că nu este implicată. Mai multe firme de securitate cibernetică au fost acuzate că exagerează amploarea unor cazuri. Unii critici spun că tehnologia actuală rămâne greu de folosit pentru atacuri complet autonome.
Cercetările publicate de alte companii majore
În noiembrie, experți Google au publicat o lucrare privind aceste riscuri. Documentul descrie temeri legate de folosirea inteligenței artificiale pentru programe malițioase noi. Cercetarea arată că instrumentele testate nu au avut rezultate convingătoare. Ele ar fi în stadii experimentale și nu ar putea gestiona operațiuni complexe fără erori.
Industria securității cibernetice, la fel ca industria inteligenței artificiale, este dornică să spună că hackerii folosesc tehnologia pentru a viza companiile, cu scopul de a stimula interesul pentru propriile produse.
În postarea sa pe blog, Anthropic a susținut că soluția pentru oprirea atacatorilor bazați pe inteligență artificială este utilizarea apărătorilor bazați pe inteligență artificială.
„Chiar abilitățile care permit ca Claude să fie folosit în aceste atacuri îl fac, de asemenea, crucial pentru apărarea cibernetică”, a susținut compania.
Și Anthropic a recunoscut că chatbot-ul său a făcut greșeli. De exemplu, a inventat nume de utilizator și parole false și a susținut că a extras informații secrete care, de fapt, erau disponibile publicului.
„Acest lucru rămâne un obstacol în calea atacurilor cibernetice complet autonome”, a spus Anthropic.