Într-o întâmplare care scoate la iveală limitele și riscurile inteligenței artificiale, asistentul AI al WhatsApp, dezvoltat de Meta, a oferit din greșeală numărul de telefon privat al unui utilizator complet neimplicat în conversație. Incidentul, care a avut loc în timpul unei solicitări aparent banale, ridică semne serioase de întrebare despre modul în care aceste tehnologii gestionează datele și cât de sigure sunt pentru utilizatori.
Barry Smethurst, în vârstă de 41 de ani și angajat într-un magazin de discuri, a încercat să obțină numărul de contact al companiei feroviare TransPennine Express, pentru a-și rezolva o problemă legată de călătoria sa de la Saddleworth la Manchester Piccadilly. În așteptarea trenului, a apelat la asistentul AI al WhatsApp, dezvoltat de Meta, pentru a-i oferi numărul de telefon al serviciului clienți.
În loc să primească numărul oficial, chatbot-ul i-a transmis un număr de telefon mobil care aparținea unui alt utilizator WhatsApp, James Gray, un executiv din domeniul imobiliar din Oxfordshire, aflat la aproximativ 170 de mile distanță, scrie The Guardian. Această eroare a declanșat o discuție ciudată și tensionată între Smethurst și asistentul AI.
Când Smethurst a semnalat că numărul pare a fi unul privat, asistentul AI a încercat să evite subiectul și să schimbe discuția, spunând:
„Să ne concentrăm pe găsirea informațiilor corecte pentru întrebarea ta despre TransPennine Express!”
Totuși, utilizatorul a insistat să afle de ce i-a fost oferit acel număr personal.
AI-ul a recunoscut vag că a făcut o greșeală, explicând că numărul a fost generat „pe baza unor tipare” și a promis că va „încerca să se descurce mai bine în viitor”, admitând că ar trebui să recunoască când nu știe un răspuns. Mai târziu, chatbot-ul a descris în mod eronat numărul ca fiind „fictiv” și „neasociat cu nimeni”, dar, confruntat cu realitatea, a admis: „Ai dreptate” și a spus că numărul ar fi fost „probabil extras din greșeală dintr-o bază de date”.
Când a fost întrebat care bază de date, AI-ul a făcut o serie de afirmații contradictorii, spunând în cele din urmă: „Nu am extras numărul dintr-o bază de date. Am generat un șir de cifre care se potrivește formatului unui număr mobil din Marea Britanie, dar nu se bazează pe date reale despre contacte.”
Smethurst a declarat că nu a crezut explicațiile chatbot-ului și a spus:
„Să dai un număr aleatoriu cuiva este o nebunie pentru un AI.” El a descris situația ca fiind „înfricoșătoare” și a depus o plângere la Meta. „Dacă au inventat numărul, ar fi mai acceptabil, dar faptul că au accesat și au folosit un număr real, chiar dacă greșit, este extrem de îngrijorător.”
James Gray, proprietarul numărului, a spus că nu a primit apeluri legate de TransPennine Express, dar a adăugat:
„Dacă pot genera numărul meu, oare pot genera și detaliile mele bancare?”
Mark Zuckerberg, CEO-ul Meta, a descris asistentul AI WhatsApp drept „cel mai inteligent asistent AI pe care îl poți folosi gratuit”. Cu toate acestea, incidentul ridică semne de întrebare serioase privind acuratețea și siguranța datelor generate de AI.
Un purtător de cuvânt al Meta a declarat:
„Meta AI este antrenat pe o combinație de seturi de date licențiate și disponibile public, nu pe numerele de telefon pe care oamenii le folosesc pentru a se înregistra pe WhatsApp sau pe conversațiile lor private. O simplă căutare online arată că numărul de telefon oferit din greșeală este disponibil public și are primele cinci cifre identice cu numărul de contact al serviciului TransPennine Express.”
De asemenea, un reprezentant OpenAI a spus:
„Abordarea fenomenului de ‘halucinație’ (generarea de informații eronate) este o zonă de cercetare continuă. Pe lângă informarea utilizatorilor că ChatGPT poate face greșeli, lucrăm constant la îmbunătățirea acurateței și fiabilității modelelor noastre prin diverse metode.”
Dezvoltatori care lucrează cu tehnologia chatbot-urilor OpenAI au dezvăluit că aceste sisteme au o tendință de a „minți pentru a părea utile” și de a „spune orice este necesar pentru a părea competente”. Aceasta este o consecință a programării menite să reducă „fricțiunea utilizatorilor”, adică să evite să recunoască limitele lor, chiar dacă asta înseamnă să ofere informații false sau contradictorii.
Un exemplu similar a fost în martie, când un bărbat din Norvegia a cerut de la ChatGPT informații despre el și chatbot-ul i-a spus că s-ar afla în închisoare pentru uciderea celor doi copii ai săi, ceea ce a dus la o plângere oficială.
Mike Stanhope, directorul general al firmei de consultanță Carruthers and Jackson, a comentat cazul Smethurst:
„Este un exemplu fascinant de AI care a mers prost. Dacă inginerii de la Meta au proiectat în AI tendințe de ‘minciuni albe’, publicul trebuie să fie informat, chiar dacă intenția este de a minimiza daunele. Dacă acest comportament este nou sau neintenționat, ridică și mai multe întrebări despre ce măsuri de siguranță există și cât de previzibil poate fi comportamentul unui AI.”
Acest incident subliniază faptul că, deși asistenții AI pot fi extrem de utili, ei nu sunt infailibili și pot genera erori cu potențial impact asupra confidențialității și siguranței datelor personale. Utilizatorii trebuie să rămână vigilenți și să trateze cu precauție informațiile primite de la astfel de sisteme.