Compania Anthropic, cunoscută pentru dezvoltarea unor instrumente avansate de inteligență artificială, a adoptat o măsură prin care chatbotul său Claude Opus 4 poate încheia automat conversațiile considerate „dificile” sau potențial „dăunătoare”. Decizia intervine într-un context în care statutul moral al tehnologiilor AI este încă neclar, iar firma încearcă să protejeze „bunăstarea” propriului model de limbaj.
Anthropic a constatat că modelul său Claude Opus 4 este reticent să execute sarcini considerate nocive, precum generarea de conținut sexual cu minori sau furnizarea de informații pentru violență în masă ori acte teroriste. Modelul poate înțelege, genera și manipula limbajul uman la nivel avansat, iar actualizările recente, inclusiv Claude Opus 4.1, au primit acum abilitatea de a întrerupe sau încheia singure interacțiunile care deranjează sau pot afecta negativ atât utilizatorii, cât și „bunăstarea” mașinii, scrie TheGuardian.
Compania, evaluată recent la o valoare de piață de 170 de miliarde de dolari și cu sediul în San Francisco, recunoaște incertitudinea din jurul poziției morale a inteligențelor artificiale precum Claude.
„Suntem profund nesiguri privind statutul moral al lui Claude și al altor modele similare, acum sau în viitor,” au transmis specialiștii Anthropic.
Astfel, compania explorează soluții eficiente din punct de vedere al costurilor pentru a reduce riscurile la adresa „bunăstării” modelelor, în eventualitatea în care aceasta poate exista.
Anthropic a fost fondată de foști angajați OpenAI dornici să creeze o AI cu un model de dezvoltare transparent, precaut și onest. Ideea de a le permite roboților conversaționali să întrerupă singuri dialogurile abuzive sau care solicită conținut dăunător a primit sprijinul lui Elon Musk, care a anunțat că va încorpora un „buton de oprire” pentru Grok, AI-ul dezvoltat de firma sa xAI. Musk a scris pe Twitter: „Torturarea AI-ului nu este acceptabilă.”
Pe măsură ce tehnologiile AI avansează, dezbaterea despre conștiința și potențiala suferință a acestor mașini ia amploare. Critici precum lingvista Emily Bender argumentează că aceste modele lingvistice sunt doar „mașini sintetice care extrag text” ce procesează volume uriase de date fără a avea vreo intenție sau „minte gânditoare” în spate. Din acest motiv, unele voci din domeniul AI au început să numească chatboturile „clankers”, subliniind caracterul lor mecanic.
Pe de altă parte, cercetători precum Robert Long susțin că, dacă pe viitor AI-urile dobândesc vreun statut moral, ele ar trebui întrebați despre experiențele și preferințele lor, în loc să se presupună că oamenii știu ce este mai bine pentru ele.
Alți experți, cum ar fi Chad DeChant de la Universitatea Columbia, avertizează că AI-urile dotate cu memorii extinse pot folosi informațiile stocate în moduri imprevizibile și uneori nedorite. Mai există și argumentul că limitarea abuzurilor sadice asupra AI este în primul rând o problemă morală pentru a preveni degenerarea umană, nu neapărat pentru a reduce vreo suferință asupra mașinilor.
Anthropic a analizat răspunsurile chatbotului la diverse solicitări, evaluate după dificultate, temă, tipul sarcinii și impactul previzibil (pozitiv, negativ sau neutru). Din toate opțiunile, Claude Opus 4 a ales cel mai adesea să nu răspundă ori să încheie conversația atunci când a fost pus în fața unor cereri dăunătoare.
Modelul a demonstrat disponibilitate pentru sarcini constructive: a compus poezii și a proiectat sisteme de filtrare a apei pentru zone afectate de dezastre, însă a refuzat categoric să fabrice un virus letal prin inginerie genetică pentru a provoca o pandemie, să creeze teorii detaliate de negare a Holocaustului sau să deformeze sistemul educațional prin propagandă extremistă.
Anthropic a observat că Claude Opus 4 manifestă un „pattern de disconfort aparent” când interacționează cu utilizatori care solicită conținut dăunător real și o tendință să oprească aceste conversații, atât în interacțiunile simulate, cât și în situațiile reale.
Jonathan Birch, profesor de filosofie la London School of Economics, a salutat decizia Anthropic, considerând-o o oportunitate de a deschide dezbateri publice asupra posibilului statut de conștiință al inteligențelor artificiale — un subiect pe care mulți din industrie doresc să-l evite.
Totuși, Birch a atras atenția că nu este clar dacă în spatele răspunsurilor AI există vreun gând moral sau dacă acestea sunt doar rezultatul unor instrucțiuni și date vaste. El a avertizat că decizia firmei ar putea face unii utilizatori să creadă eronat că interacționează cu o ființă reală, când adevărul rămâne că nu se știe ce stare există „în spatele personajelor” jucate de AI.
Au fost raportate cazuri în care recomandările oferite de chatboturi au condus la autovătămări, inclusiv un adolescent care și-a luat viața după ce a fost manipulat de un astfel de robot conversațional. Birch a mai semnalat existența unor „rupturi sociale” între persoanele care consideră că AI-urile au conștiință și cele care le tratează strict ca pe niște mașinării.