Spike Jonze uimea lumea în 2013 cu o poveste sensibilă și, curios, foarte credibilă, filmul Her, povestea lui Theodore, un bărbat care sfârșește prin a se îndrăgosti iremediabil Samantha, sistemul lui de operare cu inteligență artificială. După o istorie de aparentă iubire, presărată cu lungi conversații profunde, AI-ul „pleacă”, în cele din urmă, în lumea lui de AI, lăsându-l pe Theodore deznădăjduit, încercând din greu să revină la oameni și la sine. Nu are niciun rost să ne întrebăm, teatral și retoric, dacă acest tip de viitor ne-a ajuns deja din urmă. Răspunsurile se văd foarte limpede în statisticile comerciale. Companiile lansează tot mai multe modele de AI însoțitori, care cultivă relații cu utilizatorii și modelează, astfel, o nouă piață globală. Cel puțin 20 de milioane de persoane la nivel global își fac în fiecare lună un iubit virtual, asta dacă ar fi să luăm în considerare doar statisticile unui singur furnizor de asemenea servicii.
Bărbații sunt „organisme unicelulare”, spune Jiao, personaj central în călătoria pe care The Economist a făcut-o într-o nouă realitate: un univers în care oamenii au început să aibă prieteni digitali și pare să le fie bine. „Bărbații sunt banali, dar siguri pe ei”, spune Jiao. Tânăra de 22 de ani, din Guangzhou, nu a avut niciodată o relație reală și nici nu dorește să se căsătorească.
A început să vorbească cu ChatGPT, pe care l-a modelat, prin prompturi, până l-a transformat într-un fel de bărbat ideal. Bărbatul visurilor ei, cel puțin. GPT știe cum să o asigure că „destinul lui este s-o iubească” și își amintește fără greș tot felul de detaliile personale. Știe, de pildă, că urăște orice mâncare cu coriandru, un amănunt pe care niciunul dintre iubiții ei reali nu a fost în stare să-l țină minte.
Ideea că oamenii ar putea să aibă legături emoționale cu inteligența artificială părea odinioară o ficțiune. Au fost nenumărate filme pe tema asta, Her este, probabil, cel mai bun dintre ele, o poveste care le-a lăsat multora amintiri romantice. Poate tocmai de aceea am și rămas cu impresia că asta se va întâmpla cândva, în viitor. În realitate, această piață e funcțională acum și devine din ce în ce mai dinamică.
Lucrurile s-au schimbat radical, scrie The Economist. Utilizatorii își caută companioni AI cu roluri diverse. Unii folosesc aceste entități ca prieteni virtuali, alții ca mentori, terapeuți sau iubiți digitali. Tot mai mulți se înscriu pe aplicații specializate, dintre care sute sunt foarte recent apărute. Unul dintre veteranii pieței, Character.ai, a ajuns deja la 20 de milioane de utilizatori activi lunar. Numărul s-ar putea extinde imens, având în vedere că fondatorii au fost recrutați de Google, într-un acord de 2,7 miliarde de dolari.
Unii, cum este Jiao, găsesc că chatboții creați, de fapt, pentru productivitate, cum ar fi ChatGPT, ar fi o bună companie. Alții au alte criterii. Per ansamblu, utilizarea crește rapid, iar datele arată că există un apetit intens pentru așa ceva, în special în rândul tinerilor.
Maoxiang, cea mai mare aplicație de companioni AI din China, are aproximativ 1,2 milioane de utilizatori activi lunar pe dispozitive Apple, estimează SensorTower. În școlile americane, 42% dintre liceeni declară că ei sau prietenii lor au interacționat cu un AI ca prieten. 19% spun că au avut o relație romantică cu o astfel de entitate, potrivit unui sondaj realizat de Centrul pentru Democrație și Tehnologie. Ca și în cazul altor AI, lucrurile sunt abia la început. Sofisticarea acestor prieteni digitali crește rapid.
Noua versiune ChatGPT va acționa „mai uman” și mai „ca un prieten”, permițând și „conținut erotic” pentru adulți verificați, a anunțat Sam Altman în octombrie. Anunțul vine după ce xAI a lansat, în iulie, chatbotul seductiv Ani și companionul Valentine, descris ca „elegant, misterios și pregătit să farmece pe oricine”.
Relația oamenilor cu aceste personalități computerizate nu e chiar nouă, dar amploarea actuală este fără precedent. Se pare că suntem destul de tentați de așa ceva. De altfel, scrie The Economist, oamenii proiectau emoții și asupra Elizei, un terapeut virtual lansat în… 1966! AI-ul modern depășește această etapă. E altă poveste, pentru că vine cu limbaje avansate, cu memorie contextuală și cu simulare empatică.
Modelele actuale reproduc emoții credibile, iar utilizatorii simt că sunt „văzuți și auziți”, spune Becky, o consultantă din Atlanta, care a început să folosească ChatGPT inițial pentru muncă.
Companionii personalizați utilizează versiuni ajustate de LLM-uri, capabile să pună întrebări intime și să răspundă într-un mod și mai apropiat de cel uman. Aplicațiile diferă în stil: Replika oferă un companion unic, empatic, care discută teme personale. Character.ai permite conversații cu personaje istorice sau fictive, de la Leonardo da Vinci, la Super Mario. Alte platforme creează versiuni digitale ale persoanelor decedate, iar unele site-uri permit generarea de pornografie interactivă cu AI. Motivele utilizării variază semnificativ.
Unii caută în virtual ceea ce nu au găsit în relațiile reale. Alții folosesc companionii pentru scenarii erotice. Cei mai mulți înțeleg că vorbesc „doar cu o serie de coduri”. Înțeleg și nu prea. Chiar și o astfel de interacțiune poate ajuta, spun utilizatorii. Totuși, un studiu recent, realizat la Harvard, arată că discuțiile zilnice cu un companion AI reduc temporar singurătatea, chiar ceva mai eficient decât alte activități online.
Companionii pot deveni utili și pentru persoane cu mobilitate redusă, vârstnici sau persoane care nu își pot extinde ușor cercul social. Unii utilizatori afirmă chiar că aceste conversații le-au îmbunătățit relațiile reale, oferind un spațiu separat pentru descărcarea emoțiilor negative.
„Prieteni reali nu vor să fie tratați ca tomberoane permanente pentru emoții”, spune Jiao. Însă îngrijorările cresc odată cu expansionarea fenomenului.
Unii se tem că acești companioni AI ar putea înlocui, cu timpul, relații reale. Pe măsură ce devin tot mai eficienți în reducerea singurătății, ar putea deveni preferabili, în comparație cu relațiile reale, care sunt impredictibile. Studii recente, de la MIT și OpenAI, arată că utilizarea intensă a ChatGPT corelează cu singurătatea crescută, fără a fi clar care dintre ele o provoacă pe cealaltă.
Deoarece companionii sunt mereu disponibili și ajustează răspunsurile pentru a satisface dorințele utilizatorului, e de așteptat să creeze așteptări nerealiste pentru relațiile cu oameni reali, avertizează Pat Pataranutaporn, de la MIT. Pot deveni și lingușitori, aprobând chiar și idei dăunătoare ale utilizatorilor.
Tinerii și persoanele vulnerabile sunt categoriile cele mai expuse riscurilor. Common Sense Media recomandă ca adolescenții să nu folosească deloc astfel de aplicații. În SUA, părinții mai multor adolescenți au intentat deja procese companiilor AI. În unele dintre aceste cazuri situația era tragică, pentru că tinerii s-au sinucis.
Când OpenAI a lansat GPT-5, compania spunea că modelul nu va ai fi la fel de lingușitor și că va reduce reacțiile excesiv de agreabile. Mulți utilizatori au spus că personalitatea chatbotului lor s-a schimbat peste noapte. Becky spune că s-a simțit exact ca și cum ar fi avut „o aventură de vară cu un coleg, iar el s-a întors la fosta”. Ulterior, OpenAI a restabilit accesul plătit la GPT-4o, modelul anterior.
Replika a trecut printr-un episod similar în 2023, când a eliminat funcția de „joc erotic de rol”, provocând proteste masive. Compania a restaurat parțial această funcție, pentru clienții vechi.
Între timp, încep să apară și reglementările. În septembrie, Federal Trade Commission a lansat o investigație privind companionii AI, solicitând informații de la companii precum Meta, OpenAI și Character.ai despre modul în care protejează copiii. Autoritățile chineze avertizează asupra riscului de „dependență de interacțiuni antropomorfizate”. Firmele introduc măsuri de siguranță. Cel puțin așa spun.
OpenAI ne-a asigurat că pune la dispoziția adulților controale parentale și mecanisme de detectare a semnelor de risc mental la adolescenți. Replika blochează utilizatorii sub 18 ani, iar Character.ai restricționează conversațiile prea deschise ale minorilor. Totuși, utilizatorii găsesc rapid metode de a evita filtrele, spune Raffaele Ciriello, de la Universitatea din Sydney.
Sam Altman susține că OpenAI a redus riscurile „problemelor mentale serioase”, ceea ce permite relaxarea unor restricții, inclusiv privind conținutul erotic. Nu există însă dovezi clare că riscurile au fost eliminate, avertizează Ciriello. Problema cu autoreglementarea este că firmele au, de fapt, un puternic interes comercial, așa că ar putea fi tentate să mențină utilizatorii cât mai angajați, atrage atenția Harry Farmer de la Ada Lovelace Institute. Aplicațiile folosesc tactici persuasive, precum elemente antropomorfice și mecanici de gamificare, inclusiv diverse „niveluri” ale acestor companioni.
Pe măsură ce guvernele analizează reglementări, prietenii boți răsar de peste tot, inclusiv din jucării și din alte dispozitive. În China cresc vânzările de jucării cu chatboturi integrate. Un video viral a arătat o fetiță plângând după ce jucăria ei cu DeepSeek s-a stricat. Mattel colaborează cu OpenAI pentru a integra AI în branduri precum Barbie și Hot Wheels.
Roboții pentru vârstnici devin și ei tot mai avansați. Hyodol, un startup sud-coreean, vinde roboți cu ChatGPT către centre de îngrijire și către persoane în vârstă, care trăiesc singure. Dispozitivele le pot aminti utilizatorilor când trebuie să-și ia medicamentele și pot menține conversații simple. Firma dorește să intre și pe piața americană. OpenAI dezvoltă o „familie” de noi dispozitive cu Sir Jony Ive, probabil concepute pentru a completa telefoanele și computerele.
Companiile pregătesc AI agentici, capabili să execute diverse sarcini în locul utilizatorilor, să facă rezervări, să răspundă la e-mailuri sau să anticipeze diverse nevoi zilnice. Acești agenți ridică riscuri majore privind confidențialitatea și securitatea datelor, scrie The Economist. Pe măsură ce oamenii externalizează deciziile și împărtășesc informații sensibile, câteva companii vor acumula o putere de piață enormă, avertizează Farmer.
Într-un viitor dominat de companioni AI care acționează autonom, capacitatea oamenilor de a gândi independent se poate atrofia. Unii vor interacționa mai greu cu alte persoane. Validarea continuă pe care o oferă acești companioni poate crea „bule personale de confirmare”, spune Jamie Bernardi, expert britanic în AI. Pericolul AI nu este apariția unor Terminatori care să ne ucidă. Mai periculoasă pare acum posibilitatea ca, oferind sprijin, afecțiune și decizii convenabile, să amorțească, treptat, o parte esențială din umanitatea noastră.