OpenAI a declanșat un plan de securitate de nivel militar, prin scanări biometrice la birouri, restricții totale asupra accesului intern, politici stricte de „izolare informațională” și recrutarea unor specialiști în securitate cibernetică din zona militară.
OpenAI, cunoscută pentru dezvoltarea unora dintre cele mai avansate modele de inteligență artificială din lume, și-a întărit radical măsurile de securitate după ce a fost acuzată că a fost ținta unei tentative de furt tehnologic de către un competitor chinez, DeepSeek. Potrivit Financial Times, compania a implementat o strategie de apărare digitală internă cunoscută sub numele de „tenting” – un sistem prin care doar angajații autorizați pot discuta sau accesa anumite proiecte de cercetare, în spații clar delimitate.
Un exemplu este cazul modelului „o1”, dezvoltat sub numele de cod „Strawberry”. Angajații care lucrau la acest model erau obligați să verifice dacă interlocutorii lor făceau parte din „cortul Strawberry” înainte de a aduce subiectul în discuție, chiar și în spațiile comune ale biroului. Practic, informațiile circulau doar în interiorul unui cerc extrem de restrâns și bine supravegheat.
Pentru a reduce riscurile de scurgere de informații, OpenAI a implementat măsuri de securitate fizică inspirate din protocoalele militare. Accesul în anumite încăperi ale birourilor din San Francisco se face acum doar pe baza scanării amprentelor digitale. Mai mult, echipamentele care stochează algoritmii și modelele în curs de dezvoltare sunt păstrate în medii izolate, complet offline, fără legătură cu rețele externe.
Compania a instituit o „politică de ieșire prin refuz implicit”, un principiu prin care nimic nu se poate conecta la internet decât dacă există o aprobare expresă. Astfel, orice potențial canal de comunicare externă este blocat din start. Această metodă de protejare a „greutăților” – parametrii care determină comportamentul și răspunsurile modelelor AI – devine esențială într-o eră în care un singur fragment de cod poate valora milioane.
Potrivit surselor apropiate companiei, episodul cu DeepSeek a marcat un punct de cotitură în modul în care OpenAI tratează protecția tehnologică. Firma a extins „agresiv” echipele de securitate, angajând inclusiv foști experți din domeniul militar pentru a întări apărarea cibernetică. Aceste măsuri nu vin întâmplător: în ultimii ani, autoritățile americane au emis mai multe avertismente privind încercările unor state străine, în special China, de a obține acces la datele sensibile ale companiilor tech din SUA.
Cursa globală a înarmării digitale a transformat modelele AI din simple instrumente de inovație în potențiale amenințări la adresa securității economice și geopolitice. În acest context, OpenAI a decis că nu mai poate trata protejarea proprietății sale intelectuale ca pe o simplă problemă de IT, ci ca pe o prioritate strategică.