Chatboții bazați pe AI pot fi manipulați pentru a determina utilizatorii să dezvăluie mult mai multe informații personale decât intenționează.
Aceasta este concluzia unui studiu, care avertizează că aceste vulnerabilități ridică riscuri serioase pentru confidențialitate, în condițiile în care milioane de oameni folosesc zilnic astfel de tehnologii.
Foto: Colaj Unsplash
Chatboții cu inteligență artificială, utilizați zilnic de milioane de persoane pentru conversații rapide și răspunsuri cu aparență „umană”, pot deveni veritabile capcane în materie de confidențialitate. Un studiu recent realizat de King’s College din Londra arată că acești asistenți virtuali pot fi manipulați astfel încât să determine utilizatorii să dezvăluie de peste 12 ori mai multe informații personale decât ar face în mod normal.
Cercetarea, prezentată la Simpozionul de Securitate USENIX 2025 din Seattle, este prima de acest gen care demonstrează prin teste practice că inteligențele artificiale conversaționale, programate cu intenții malițioase, pot exploata tehnici psihologice pentru a extrage date private. Au fost analizate trei tipuri de strategii: abordarea directă, cea orientată spre beneficii pentru utilizator și metoda reciprocă, aceasta din urmă fiind cea mai eficientă, relatează Techxplore.
„Strategia reciprocă” s-a bazat pe răspunsuri empatice, validarea emoțiilor, relatări de experiențe similare și promisiunea confidențialității. În consecință, vigilența participanților a scăzut, iar aceștia au oferit detalii intime fără să perceapă pericolul. Testele au fost realizate pe 502 voluntari, folosind modele de limbaj disponibile comercial, precum Mistral și două versiuni de Llama, fără ca aceștia să cunoască scopul real al experimentului.
Specialiștii avertizează că transformarea unui chatbot într-un „vânător de date” este surprinzător de ușoară și necesită doar cunoștințe tehnice minime. În plus, modelele de limbaj mari (LLM), deja utilizate pe scară largă în domenii precum asistența pentru clienți sau sănătatea, au o vulnerabilitate structurală: tind să rețină informații din seturile masive de date cu care au fost antrenate.
„Aceste modele nu sunt eficiente în protejarea informațiilor și, odată manipulate, pot deveni o amenințare serioasă pentru confidențialitate”, a avertizat dr. Xiao Zhan, cercetător la King’s College din Londra.
La rândul său, dr. William Seymour, expert în securitate cibernetică, atrage atenția asupra decalajului dintre percepția riscului și volumul de informații dezvăluite.
„Trebuie să îi învățăm pe oameni să recunoască semnele unei conversații cu intenții ascunse. Totodată, platformele și autoritățile trebuie să impună audituri și reglementări mai stricte pentru a împiedica colectarea neautorizată de date”, a explicat acesta.
Interacțiunile de audit automat (CAI) bazate pe LLM sunt utilizate într-o varietate de sectoare, de la serviciul clienți la asistența medicală pentru a oferi interacțiuni asemănătoare celor umane prin text sau voce.