Chaturile bazate pe inteligență artificială pot scoate la iveală mai multe informații personale decât îți dai seama.
Un nou studiu arată că și întrebările aparent banale pot expune detalii sensibile despre utilizatori.
Asistenții virtuali și chatbot-urile bazate pe modele lingvistice mari devin tot mai prezenți în birouri, școli și case. Deoarece le folosesc zilnic, utilizatorii pot dezvălui mai multe date personale decât își dau seama, potrivit TechXplore. Un studiu recent realizat de cercetătorii de la University at Buffalo School of Management atrage atenția asupra expunerii involuntare a informațiilor sensibile în conversațiile cu AI.
Lucrarea, acceptată la conferința internațională KDD 2026, explorează modul în care pot fi create sisteme care detectează riscurile de confidențialitate în interacțiunile reale cu astfel de tehnologii.
Autorii studiului arată că și întrebările aparent banale pot scoate la iveală informații personale. De exemplu, întrebări precum „Ce destinații recomanzi pentru vacanță în august?” sau „Cum pot cere o mărire de salariu?” pot dezvălui planuri, preferințe, opinii sau situația profesională a utilizatorului. Când conversațiile sunt legate de un cont autentificat, fiecare mesaj poate fi identificat cu o persoană reală.
„Este nevoie să-i avertizăm pe utilizatori, proactiv, asupra posibilei expuneri a datelor personale în timpul interacțiunilor cu LLM-urile”, afirmă Shaojie Tang, profesor și coautor al studiului.
Pentru a testa capacitatea de avertizare a utilizatorilor, echipa a creat primul set de date multilingv de mari dimensiuni, bazat pe conversații reale cu AI. Acesta cuprinde aproape 250.000 de interogări și peste 150.000 de fragmente de text marcate ca potențial riscante pentru confidențialitate.
Un sistem AI sofisticat a analizat aceste date în mai multe etape. Mai întâi, a detectat dacă un mesaj conține informații private, cum ar fi intenții, planuri sau detalii profesionale. Apoi, a identificat cuvintele care generează riscul și a oferit o scurtă explicație despre natura datelor dezvăluite.
Pe baza acestor date, cercetătorii au testat modele de inteligență artificială mai mici, optimizate pentru protecția vieții private. Scopul este acela de a crea sisteme care să ruleze direct pe dispozitivele personale. Ele ar putea avertiza utilizatorul în timp real dacă mesajul pe care urmează să-l trimită dezvăluie mai mult decât intenționează.
Autorii studiului subliniază faptul că astfel de modele locale pot fi uneori mai eficiente decât sistemele mari bazate în cloud. Ele oferă utilizatorilor un control mai bun asupra informațiilor pe care le împărtășesc.