OpenAI trage un semnal de alarmă privind browserele bazate pe AI, avertizând că acestea vor fi tot mai expuse atacurilor cibernetice.
Potrivit companiei californiene, complexitatea tot mai mare a sistemelor de inteligență artificială și modul în care acestea procesează datele utilizatorilor pot crea breșe greu de eliminat pe termen scurt.
:format(webp):quality(80)/https://www.putereafinanciara.ro/wp-content/uploads/2025/12/Browserele-AI-expuse-riscurilor-de-securitate-Puterea-financiara.jpg)
Foto: Puterea financiară
OpenAI admite că agenții AI pot fi induși în eroare să execute comenzi periculoase. Atacurile ascunse în pagini web sau în mesaje reprezintă un risc semnificativ. Chiar și cu măsuri de protecție implementate de companie, amenințarea nu poate fi eliminată complet. Într-o analiză publicatăpe blogul oficial, OpenAI a comparat aceste tactici cu metodele clasice de înșelăciune online și cu ingineria socială, subliniind că astfel de riscuri „nu vor putea fi, cel mai probabil, eradicate în totalitate”, relatează TechCrunch.
În același timp, OpenAI admite că funcția „agent mode” din ChatGPT Atlas crește riscul de atacuri cibernetice. Activarea acestei opțiuni extinde semnificativ suprafața de vulnerabilitate a browserului AI la potențiale atacuri cibernetice.
Lansat în octombrie, ChatGPT Atlas a atras rapid atenția experților în securitate cibernetică. Aceștia au demonstrat faptul că acest browser poate fi influențat prin comenzi ascunse în fișiere sau în pagini aparent sigure și lipsite de riscuri.
Avertismente similare au venit și din partea Centrului Național de Securitate Cibernetică din Marea Britanie, care a transmis recent că acest tip de atacuri ar putea rămâne imposibil de prevenit în mod absolut.
Pentru a reduce impactul acestor vulnerabilități, OpenAI mizează pe testare permanentă și pe intervenții rapide. Un instrument central în această strategie îl reprezintă dezvoltarea unui „atacator automatizat”. Acesta este construit pe baza unor modele lingvistice de mari dimensiuni (LLM). Ele sunt antrenate prin sisteme de recompensă pentru a simula comportamentul unui hacker.
Prin intermediul acestui mecanism, compania tech testează în medii controlate tehnici noi de atac. Astfel, reușește să identifice punctele slabe înainte ca acestea să fie exploatate la scară largă.
Un exemplu oferit de OpenAI arată cum un e-mail malițios a determinat inițial agentul AI să trimită accidental un mesaj de demisie. După aplicarea unor actualizări de securitate, browserul a reușit să detecteze tentativa și să alerteze utilizatorul. Chiar și așa, experții în securitate cibernetică avertizează că nivelul de risc rămâne ridicat. Și asta, în special pe măsură ce aceste tehnologii devin tot mai complexe.
În acest context, OpenAI recomandă utilizatorilor să restricționeze permisiunile acordate agenților AI și să solicite confirmări explicite înainte de acțiuni sensibile, precum trimiterea de e-mailuri, semnarea de documente sau efectuarea de plăți.