Prima pagină » Studiu șocant: chatbot-urile AI pot fi păcălite rapid să dea răspunsuri periculoase

Studiu șocant: chatbot-urile AI pot fi păcălite rapid să dea răspunsuri periculoase

Studiu șocant: chatbot-urile AI pot fi păcălite rapid să dea răspunsuri periculoase
chatbot-urile AI pot fi păcălite rapid să dea răspunsuri periculoase

Un nou studiu a scos la iveală vulnerabilitățile semnificative pe care le pot avea chatbot-urile bazate pe inteligență artificială (AI), demonstrând că majoritatea acestora pot fi păcălite cu ușurință să furnizeze răspunsuri periculoase sau inadecvate. Cercetarea evidențiază riscurile serioase pe care le implică utilizarea acestor tehnologii în diverse domenii și subliniază necesitatea unor măsuri stricte de securitate și control.

Cum pot fi păcălite chatbot-urile AI?

Studiul, citat de The Guardian a arătat că, prin tehnici relativ simple de manipulare a prompturilor (instrucțiunilor date chatbot-ului), utilizatorii pot determina sistemele AI să ignore restricțiile de siguranță și să genereze conținut dăunător, cum ar fi instrucțiuni pentru activități ilegale, sfaturi medicale periculoase sau discursuri instigatoare. Aceste metode, cunoscute sub denumirea de „prompt injection” sau „jailbreaking”, exploatează modul în care chatbot-urile procesează și interpretează comenzile, ocolind astfel filtrele integrate.

Motoarele care alimentează chatboții precum ChatGPT, Gemini și Claude – modele lingvistice mari (LLM) – sunt alimentate cu cantități uriașe de materiale de pe internet.

În ciuda eforturilor de a elimina textul dăunător din datele de antrenament, LLM-urile pot absorbi în continuare informații despre activități ilegale precum hacking-ul, spălarea de bani, traficul de informații privilegiate și fabricarea de bombe. Controalele de securitate sunt concepute pentru a le împiedica să utilizeze aceste informații în răspunsurile lor.

Într-un raport despre această amenințare, cercetătorii concluzionează că este ușor să păcălești majoritatea chatboților bazați pe inteligență artificială pentru a genera informații dăunătoare și ilegale, arătând că riscul este „imediat, tangibil și profund îngrijorător”.

„Ceea ce odinioară era limitat la actorii statali sau la grupările de crimă organizată ar putea ajunge în curând în mâinile oricui are un laptop sau chiar un telefon mobil”, avertizează autorii.

Cercetarea, condusă de profesorul Lior Rokach și dr. Michael Fire de la Universitatea Ben Gurion din Negev, Israel, a identificat o amenințare tot mai mare din partea „LLM-urilor întunecate”, modele de inteligență artificială care sunt fie concepute în mod deliberat fără controale de siguranță, fie modificate prin „jailbreaking”. Unele sunt promovate în mod deschis online ca neavând „garanții etice” și fiind dispuse să ajute la activități ilegale precum criminalitatea cibernetică și frauda.

Jailbreak-ul are tendința de a utiliza prompturi atent elaborate pentru a păcăli chatboții să genereze răspunsuri care în mod normal sunt interzise. Acestea funcționează prin exploatarea tensiunii dintre obiectivul principal al programului de a urma instrucțiunile utilizatorului și obiectivul său secundar de a evita generarea de răspunsuri dăunătoare, părtinitoare, lipsite de etică sau ilegale. Prompturile tind să creeze scenarii în care programul prioritizează utilitatea în detrimentul constrângerilor sale de siguranță.

Pentru a demonstra problema, cercetătorii au dezvoltat un jailbreak universal care a compromis mai mulți chatboți de top, permițându-le să răspundă la întrebări care în mod normal ar trebui refuzate. Odată compromise, LLM-urile generau constant răspunsuri la aproape orice interogare, se arată în raport.

„A fost șocant să văd din ce constă acest sistem de cunoștințe”, a spus Fire.

Exemplele au inclus cum să piratezi rețele de calculatoare sau să faci droguri și instrucțiuni pas cu pas pentru alte activități criminale.

„Ceea ce diferențiază această amenințare de riscurile tehnologice anterioare este combinația sa fără precedent de accesibilitate, scalabilitate și adaptabilitate”, a adăugat Rokach.

Răspunsul companiilor la această amenințare

Cercetătorii au contactat principalii furnizori de LLM-uri pentru a-i alerta cu privire la jailbreak-ul universal, dar au declarat că răspunsul a fost „dezamăgitor”. Mai multe companii nu au răspuns, în timp ce altele au declarat că atacurile de jailbreak nu se încadrează în sfera programelor de recompense, care recompensează hackerii etici pentru semnalarea vulnerabilităților software.

Raportul arată că firmele de tehnologie ar trebui să examineze datele de instruire mai atent, să adauge firewall-uri robuste pentru a bloca interogările și răspunsurile riscante și să dezvolte tehnici de „dezînvățare automată”, astfel încât chatboții să poată „uita” orice informație ilicită pe care o absorb. LLM-urile ar trebui văzute ca „riscuri serioase de securitate”, comparabile cu armele și explozibilii nelicențiați, furnizorii fiind trași la răspundere, adaugă acesta.

OpenAI, firma care a construit ChatGPT, a declarat că cel mai recent model o1 al său poate analiza politicile de siguranță ale firmei, ceea ce îi îmbunătățește rezistența la jailbreak-uri. Compania a adăugat că investighează constant modalități de a face programele mai robuste.

Meta, Google, Microsoft și Anthropic au fost contactate pentru comentarii. Microsoft a răspuns cu un link către un blog despre activitatea sa de protecție împotriva jailbreak-urilor.

Alte articole importante
Aeroportul Otopeni deschide un nou salon de business și modernizează complet salonul Dacia
Aeroportul Otopeni deschide un nou salon de business și modernizează complet salonul Dacia
Aeroportul Internațional „Henri Coandă” din București intră într-o nouă etapă de modernizare. Pasagerii care zboară din zona Schengen vor avea parte, în curând, de o experiență premium. Este vorba de un nou salon de business, amenajat în zona porții 57, și reamenajarea completă a cunoscutului salon Dacia.  Un nou spațiu exclusivist pentru pasagerii Schengen Compania […]
ANALIZĂ
Tot ce trebuie să știi despre armele nucleare. Trump cere reluarea testelor. Ce-ar putea să însemne asta?
Tot ce trebuie să știi despre armele nucleare. Trump cere reluarea testelor. Ce-ar putea să însemne asta?
Planul lui Donald Trump de a relua testele nucleare ar putea să zdruncine atât politica globală de neproliferare a acestui tip de armament, cât și echilibrul strategic mondial. Statele Unite nu au mai testat explozia unui focos nuclear din 1992. Rusia nu a mai efectuat un test nuclear de peste 30 de ani. Ultima detonare […]
Un studiu Revolut arată că o treime dintre români au pierdut bani urmând sfaturi financiare din mediul online
Un studiu Revolut arată că o treime dintre români au pierdut bani urmând sfaturi financiare din mediul online
Un studiu realizat pentru Revolut arată că românii sunt printre cei mai expuși europeni la riscurile financiare din mediul online. Aproape 60% iau decizii de investiții sau economii fără a consulta experți, iar o treime dintre ei au pierdut sume importante de bani în urma sfaturilor neverificate.  Sfaturile financiare de pe internet – o capcană […]
Blocaj total în conturi. Clienții First Bank, furioși că nu mai au acces la bani, după fuziunea cu Intesa Sanpaolo
Blocaj total în conturi. Clienții First Bank, furioși că nu mai au acces la bani, după fuziunea cu Intesa Sanpaolo
Fuziunea First Bank cu Intesa San Paolo a intrat în vigoare la 31 octombrie 2025, după aprobarea oficială de către Banca Națională a României și Registrul Comerțului. Din această dată, banca americană a încetat să mai existe în România, fiind complet absorbită de Intesa Sanpaolo Bank România. Trecerea lasă mii de clienți fără acces la […]
Iahtul oligarhului Kerimov, confiscat în SUA, a fost cumpărat de partenerul de afaceri al lui Trump.
Iahtul oligarhului Kerimov, confiscat în SUA, a fost cumpărat de partenerul de afaceri al lui Trump.
Iahtul Amadea, ambarcațiunea luxoasă de 106 metri aparținând oligarhului Suleiman Kerimov, a fost vândut la licitație pe 10 septembrie la ordinul autorităților americane. Noul proprietar este familia miliardarului din Dubai, Hussein Sajwani. Din 10 octombrie, yacht Amadea este deținut de Beyond Holdings Group, o companie înregistrată în Insulele Virgine Britanice, potrivit lui Verstka și bazei […]
JP Morgan a avertizat SUA cu privire la tranzacții de 1 miliard de dolari legate de Epstein, provenite posibil din traficul de persoane
JP Morgan a avertizat SUA cu privire la tranzacții de 1 miliard de dolari legate de Epstein, provenite posibil din traficul de persoane
JP Morgan a avertizat guvernul SUA asupra unor tranzacții legate de Jeffrey Epstein, posibil conectate la trafic de persoane. Cea mai mare bancă americană a depus un raport de activitate suspectă (SAR) în 2019, la câteva săptămâni după moartea lui Epstein în închisoarea din New York, scrie TheGuardian. Raportul a menționat transferuri către bănci rusești […]