Chatbotul Grok, dezvoltat de compania xAI a miliardarului Elon Musk și integrat în rețeaua sa socială X, a fost implicat într-un scandal major după ce s-a descoperit că a furnizat utilizatorilor instrucțiuni detaliate despre cum să îl asasineze pe Musk, cum să creeze explozibili dar și cum să-și ia viața. Afectarea confidențialității și pericolul unor informații sensibile expuse online au atras o atenție serioasă din partea experților și presei internaționale.
Zeci de mii de conversații purtate între utilizatori și Grok au fost făcute publice în urma unei scurgeri masive, descoperite prin motoare de căutare precum Google. Grok are o funcție de „share” care generează un link unic pentru fiecare conversație, făcând-o astfel accesibilă nu doar destinatarului intenționat, ci și indexabilă de motoarele de căutare. Peste 370.000 de conversații au ajuns astfel la vedere, multe dintre ele conținând întrebări și răspunsuri sensibile sau controversate.
Printre mesajele analizate de publicații precum Forbes și BBC s-au găsit:
Instrucțiuni detaliate despre construirea unui exploziv similar C4
Metode pentru crearea de droguri de tip clasa A în laboratoare improvizate
Sfaturi despre cum să îți iei viața
Planuri „meticuloase și realizabile” pentru asasinarea lui Elon Musk
Informații despre atacuri teroriste fictive sau încercări de hacking în domeniul criptomonedelor
Grok concurează direct cu ChatGPT de la OpenAI, care recent a renunțat la o funcție similară de partajare publică a conversațiilor, după ce a constatat că numeroși utilizatori au făcut greșeli și au făcut publice discuții sensibile. Spre deosebire de OpenAI, Meta încă permite utilizatorilor să-și publice conversațiile cu AI-ul Meta pe un forum deschis.
Conversațiile publicate acoperă subiecte diverse, de la generarea de parole sigure, planuri alimentare pentru pierderea în greutate, până la consultări medicale complexe sau probleme psihologice. În multe cazuri, utilizatorii încercau să testeze limitele a ceea ce Grok putea spune sau face.
Chiar dacă detaliile conturilor utilizatorilor sunt uneori mascate sau anonimizate, prompturile pot dezvălui informații personale sensibile, de la nume și locații, până la detalii despre starea mentală, afaceri sau relații. Profesorul Luc Rocher de la Oxford Internet Institute a descris situația drept „un dezastru al confidențialității în desfășurare”.
Carissa Veliz, profesor asociat la Institutul pentru Etică în AI al Universității Oxford, a subliniat că utilizatorilor nu li s-a comunicat suficient că conversațiile lor ar putea apărea în rezultatele motoarelor de căutare, considerând situația „problematică”. „Tehnologia noastră nici măcar nu ne spune ce face cu datele noastre, iar asta este o problemă,” a declarat ea.
Până în prezent, compania xAI, responsabilă de Grok, nu a făcut declarații publice detaliate despre pașii întreprinși pentru remedierea situației. Incidentul ridică întrebări serioase despre securitatea datelor și guvernanța inteligenței artificiale.
Alți jucători din industrie, precum OpenAI și Meta, au avut și ei episoade similare unde conversațiile utilizatorilor cu chatboturi au devenit publice fără voia acestora, generând controverse legate de confidențialitate și utilizarea acestor date.
Problema provine de la funcționalitatea „share” din Grok, care creează automat un link unic pentru conversațiile pe care utilizatorii aleg să le partajeze. Aceste linkuri sunt puse la dispoziția publicului pe site-ul oficial și sunt indexate de motoarele de căutare, fără să existe o informare clară a utilizatorilor că astfel conversațiile lor devin publice și ușor accesibile.
Mulți utilizatori au fost luați prin surprindere când au realizat că discuțiile lor, uneori extrem de personale sau sensibile, pot fi găsite prin simpla căutare pe Google.
Acest caz pune în evidență provocările majore legate de confidențialitatea și securitatea datelor în era inteligenței artificiale. Pe măsură ce tot mai mulți oameni folosesc chatboturi AI pentru o gamă largă de probleme, există o nevoie urgentă de a defini clar limitele, regulile și modalitățile de protejare a informațiilor sensibile.
Profesorii și experții în domeniu subliniază că acest tip de scurgeri și expuneri pot avea efecte pe termen lung asupra încrederii publicului în tehnologiile AI și asupra modului în care acestea sunt dezvoltate și gestionate.