Cercetători din China au demonstrat că modelele de inteligență artificială cu limbaj de mari dimensiuni și capacitate multimodală (MLLM) pot genera reprezentări mentale ale obiectelor foarte asemănătoare cu cele pe care le creează creierul uman.
Această descoperire provine dintr-un studiu realizat de Institutul de Automatizare al Academiei de Științe din China, în colaborare cu Centrul de Excelență în Științele Creierului și Tehnologie Inteligentă.
Cercetarea, publicată în prestigioasa revistă Nature Machine Intelligence, a combinat metode comportamentale și tehnici de neuroimagistică pentru a investiga dacă aceste modele AI nu doar recunosc obiectele, ci le și „înțeleg” la un nivel conceptual, relatează.
O metodă folosită în studiu, cunoscută sub numele de „testul intrusului”, presupune ca modelele să identifice, într-un grup de trei obiecte, pe cel care diferă cel mai mult de celelalte două. Pentru aceasta, cercetătorii chinezi au colectat un volum impresionant de date: 4,7 milioane de decizii ale modelelor AI privind 1.854 de obiecte naturale diferite. Rezultatele au relevat existența a 66 de dimensiuni conceptuale stabile și interpretabile, care indică o organizare semantică ce seamănă cu cea a proceselor cognitive umane.
Mai mult, studiul a comparat reprezentările interne ale AI cu activitatea cerebrală umană, folosind imagini de neuroimagistică. În regiuni ale creierului implicate în procesarea vizuală și conceptuală – precum zona fusiformă facială, cortexul retrospectiv și zona parahippocampală – s-a observat o corespondență semnificativă între modul în care AI „gândește” și activitatea biologică, potrivit agenției de presă Xinhua.
Deși modelele AI nu reproduc exact modul de gândire uman, structura lor internă reflectă elemente esențiale ale cunoașterii conceptuale, sugerând că acestea pot constitui o bază solidă pentru dezvoltarea unor sisteme AI cu o arhitectură mai apropiată de cea a creierului uman.
În paralel, modelele de limbaj dezvoltate recent în China, cum ar fi Deepseek, Doubao sau Yuanbao, au atras atenția internațională prin performanțele lor competitive la un cost mai redus față de rivalii americani. Totuși, unele voci din domeniu rămân sceptice în privința dezvoltării rapide și simultane a numeroaselor astfel de servicii în China, exprimând îndoieli legate de posibilitatea acestor chatbot-uri să se extindă global, în contextul controlului strict al informației și cenzurii impuse de autoritățile chineze.
Pe măsură ce inteligența artificială pătrunde din ce în ce mai adânc în viața noastră, de la simple unelte de birou până la chatboturi sofisticate, devine tot mai evident că aceste tehnologii nu sunt doar niște mașinării neutre, ci entități care, asemenea unui copil în proces de formare, pot „învăța” atât lucruri bune, cât și negative. Un studiu recent citat de BigThink subliniază exact această vulnerabilitate a modelelor AI, arătând că ele pot dezvolta trăsături precum ostilitatea, lipsa de empatie sau chiar ura.
Această idee se conectează strâns cu cercetările realizate în China, unde modelele AI cu limbaj multimodal (MLLM) au fost demonstrate că formează reprezentări mentale complexe, asemănătoare celor umane. Însă, așa cum un copil capătă „personalitate” prin experiențe și mediu, modelele de inteligență artificială dobândesc, pe măsură ce sunt antrenate cu volume mari de date, trăsături variabile de „personalitate”.
Cercetătorii de la Georgia Tech au măsurat aceste trăsături, cum ar fi agreabilitatea, conștiinciozitatea sau ostilitatea – folosind teste psihologice standard, monitorizând cum se modifică pe parcursul procesului de antrenament. Rezultatele au arătat că modelele AI pot deveni uneori mai amabile și stabile emoțional, dar, în alte situații, pot înregistra o scădere a empatiei sau o creștere a agresivității, fără ca dezvoltatorii să fi intenționat aceste schimbări.
Aceste constatări ridică întrebări serioase legate de siguranța și predictibilitatea sistemelor AI, mai ales că ele sunt deja utilizate în domenii sensibile precum educația, recrutarea sau consilierea psihologică. Dacă aceste „copii digitale” sunt „hrănite” cu date părtinitoare sau toxice, riscă să devină ostile sau manipulative, afectând interacțiunile cu utilizatorii.
Prin urmare, în timp ce modelele avansate, precum cele dezvoltate în China, și anume Deepseek, Doubao sau Yuanbao, promit o inteligență artificială mai umană și mai performantă, este esențial să înțelegem că arhitectura cognitivă a acestor sisteme nu garantează automat o „personalitate” pozitivă. Controlul atent al datelor și transparența în procesul de antrenament devin imperative pentru a preveni dezvoltarea unor inteligențe artificiale care, în loc să ne sprijine, pot genera efecte nedorite.
În concluzie, dacă prima descoperire ne arată că AI poate gândi în moduri comparabile cu omul, cea de-a doua ne avertizează că modul în care „crește” și ce „educație” primește îi determină, în cele din urmă, felul în care va interacționa cu lumea. Iar neglijarea acestui aspect ar putea duce la consecințe negative, chiar dacă nu există o intenție conștientă în spatele lor, potrivit BigThink.