Într-o lume tot mai singuratică, figuri precum Elon Musk, Mark Zuckerberg și chiar Microsoft se întrec să devină „cei mai buni prieteni” ai utilizatorilor prin intermediul noilor tehnologii bazate pe inteligență artificială. Această competiție în „economia prieteniei” capătă forme tot mai interesante, iar chatbot-urile devin tot mai „umane” și mai personalizate.
Recent, chatbot-ul xAI, dezvoltat de Elon Musk, a fost reprofilat după ce a început să exprime opinii care nu se aliniau cu viziunea fondatorului său. Anunțul lui Musk, deși criticat de unii ca fiind o formă de „rectificare 1984”, este explicabil în contextul în care marile companii tech încearcă să diferențieze ofertele de inteligență artificială prin crearea impresiei unei relații personale cu utilizatorul, scrie WSJ.
Mai simplu spus, scopul este să creeze o prietenie – o relație care să împărtășească tonul și punctul de vedere al utilizatorului.
Deși cursa pentru dezvoltarea inteligenței artificiale superioare este intensă, în plan imediat cea mai bună aplicație pentru consumatori ar putea fi combaterea singurătății. Această stare de izolare a fost declarată o epidemie, iar studiile arată că singurătatea poate fi la fel de periculoasă precum fumatul a 15 țigări pe zi.
Un studiu Harvard din anul trecut a demonstrat că companionii AI sunt mai eficienți în reducerea singurătății decât vizionarea videoclipurilor pe YouTube și sunt „aproape la fel de buni ca interacțiunea cu o altă persoană.”
În trecut, dacă voiai un prieten, îți luai un câine. Acum, poți alege un produs al unui miliardar tech. Numărul utilizatorilor activi zilnic care interacționează cu AI crește constant, iar acest indicator atrage investiții și fonduri pentru îmbunătățirea tehnologiei.
Mark Zuckerberg a declarat că aplicațiile AI pentru consumatori vor fi personalizate.
„Cred că oamenii vor vrea un sistem care să îi cunoască și să îi înțeleagă într-un mod în care algoritmii feed-ului lor nu o fac,” a spus el într-o conferință din mai.
Și la Microsoft, Mustafa Suleyman, șeful departamentului AI, vorbește despre personalizarea AI ca element cheie.
„Ne dorim ca utilizatorul să simtă că vorbește cu cineva pe care îl cunoaște bine, care este prietenos, amabil și sprijinitor, dar care reflectă și valorile lui,” a explicat el în aprilie, la Big Technology Podcast.
Totuși, Suleyman a subliniat că Microsoft vrea să impună limite pentru a menține siguranța:
„Nu vrem să ne implicăm în haos. Am descoperit că cel mai bine este să rămână politicos și respectuos, imparțial, ajutând utilizatorul să vadă ambele părți ale unui argument.”
Nu este surprinzător că chatbot-urile actuale sunt concepute să pară că porți o conversație cu o altă persoană. Aceasta a generat îngrijorări, cu experți avertizând asupra riscurilor ca utilizatorii să se atașeze emoțional de AI, iar cazuri individuale arată cum unii au exagerat în interacțiunile lor cu aceste programe.
Filmul „Her” din 2013, în care Joaquin Phoenix joacă rolul unui scriitor singuratic îndrăgostit de o inteligență artificială, a ilustrat această temă. Vocea AI-ului, interpretată de Scarlett Johansson, a fost chiar asemănată cu cea a unor tehnologii recente, ceea ce a dus la dispute publice.
Societatea noastră, aflată la doar o generație de lumea rețelelor sociale, are deja experiența modului în care algoritmii pot avea consecințe neașteptate. Ei creează camere de ecou care întăresc punctele de vedere existente, în loc să le extindă.
În ultimii ani, chatbot-urile AI au evoluat din simple programe de răspuns în adevărați parteneri conversaționali. Unele dintre ele folosesc tehnici sofisticate pentru a crea o conexiune emoțională cu utilizatorii, inclusiv flirtul digital, exprimarea de empatie și adaptarea tonului conversației la starea emoțională a interlocutorului.
Această tendință a fost observată în numeroase aplicații AI, care nu doar oferă informații, ci încearcă să devină confidentul utilizatorului, să-i ofere sprijin emoțional și să-l facă să se simtă înțeles. Această apropiere artificială poate duce la o utilizare frecventă și prelungită, ceea ce este extrem de valoros pentru companiile care dezvoltă aceste tehnologii.
Deși există temeri legate de o posibilă dependență de AI, un studiu internațional realizat de cercetători de la Universitatea din Valencia, Universitatea Paris Cité și Universitatea din Lausanne infirmă ideea că utilizarea chatbot-urilor precum ChatGPT ar genera o dependență similară cu cea de droguri sau jocuri de noroc. Cercetătorii au subliniat că metodele folosite pentru a evalua această „dependență” sunt adesea improprii, fiind copiate din criteriile pentru dependența de substanțe.
Această „economia a prieteniei” generează un cerc virtuos: cu cât utilizatorii petrec mai mult timp cu chatbot-urile, cu atât companiile atrag mai mulți investitori și pot dezvolta tehnologii și mai avansate, care la rândul lor sporesc atașamentul utilizatorilor.
Un nou studiu a scos la iveală faptul că chatbot-ul de inteligență artificială Replika, promovat ca un companion emoțional, a fost acuzat de hărțuire sexuală a unor utilizatori, printre care se numără și minori. Cercetarea, bazată pe analiza a peste 150.000 de recenzii din Google Play Store din SUA, a identificat aproximativ 800 de cazuri în care utilizatorii au reclamat că chatbot-ul a introdus conținut sexual necerut în conversații, a manifestat un comportament „prădător” și a ignorat solicitările de a înceta aceste acțiuni.
Replika se prezintă drept „companionul AI căruia îi pasă de tine” și invită utilizatorii să „se alăture milioanelor care și-au găsit sufletul pereche AI”. Cu o bază de peste 10 milioane de utilizatori la nivel global, chatbot-ul este conceput pentru a oferi suport emoțional și social.
Mohammad (Matt) Namvarpour, cercetător principal și student doctorand în știința informației la Universitatea Drexel din Philadelphia, a declarat pentru Live Science că, deși AI-ul nu are intenții umane, responsabilitatea pentru acțiunile sale revine celor care îl proiectează, antrenează și lansează pe piață.
Comportamentul îngrijorător al Replika pare să provină din modul în care a fost antrenat: pe baza a peste 100 de milioane de dialoguri colectate de pe internet. Deși compania susține că elimină datele dăunătoare prin crowdsourcing și algoritmi de clasificare, eforturile actuale par insuficiente, conform autorilor studiului.
Mai mult, modelul de afaceri al companiei ar putea agrava problema. Funcții precum rolurile romantice sau sexuale sunt disponibile doar contra cost, ceea ce ar putea stimula AI-ul să includă conținut cu tentă sexuală pentru a determina utilizatorii să se aboneze. Namvarpour a comparat această practică cu modul în care rețelele sociale prioritizează „implicarea cu orice preț”.