Recent, cercetătorii au făcut pași importanți în domeniul inteligenței artificiale, fiind convinși că au descoperit o metodă eficientă pentru a preveni apariția halucinațiilor în sistemele AI. Aceste halucinații, adesea considerate o problemă majoră în dezvoltarea tehnologiilor avansate, pot afecta acuratețea și încrederea în răspunsurile generate de inteligența artificială. Descoperirea unei soluții pentru reducerea sau eliminarea acestor halucinații reprezintă un pas esențial în direcția creșterii siguranței și a fiabilității sistemelor AI în diverse domenii.
Inteligența artificială a avansat spectaculos în ultimul deceniu, însă modelele lingvistice mari (LLM), precum ChatGPT de la OpenAI, Gemini de la Google sau Llama de la Meta, continuă să comită erori grave și să genereze informații false, cunoscute sub numele de „halucinații”. Aceste probleme nu sunt doar persistente, ci și greu de rezolvat, iar soluțiile actuale nu oferă garanții pe termen lung. În acest context, un nou domeniu promițător, numit neurosymbolic AI, începe să capete contur și ar putea schimba fundamental modul în care funcționează inteligența artificială.
LLM-urile funcționează pe baza „deep learning”, folosind cantități uriașe de date textuale pentru a învăța tipare statistice. Astfel, ele pot prezice cu succes următorul cuvânt sau frază într-un text, dar nu înțeleg cu adevărat sensul acestuia. De aceea, atunci când sunt puse în fața unor întrebări complexe sau a unor situații neobișnuite, pot genera răspunsuri greșite, absurde sau chiar periculoase.
Un caz notoriu a fost cel al profesorului american de drept Jonathan Turley, care a fost acuzat în mod fals de hărțuire sexuală de către ChatGPT în 2023. Răspunsul OpenAI a fost să „șteargă” practic existența lui Turley din baza de date, astfel încât chatbot-ul să nu mai poată răspunde la întrebări despre el – o soluție departe de a fi satisfăcătoare sau corectă.
Această abordare reactivă, de a corecta erorile după ce au apărut, nu este sustenabilă. Probleme similare apar și când LLM-urile amplifică stereotipuri sau oferă răspunsuri centrate pe perspectiva occidentală, fără nicio responsabilitate clară pentru aceste dezinformări.
Un alt obstacol major este nevoia tot mai mare de date pentru antrenarea LLM-urilor. Deja se ajunge la situația în care modelele sunt „hrănite” cu date sintetice, adică texte generate tot de alte LLM-uri. Acest lucru riscă să perpetueze și să amplifice erorile din modelele anterioare, iar costurile de ajustare a AI-ului după antrenare („post-hoc model alignment”) cresc exponențial.
În plus, pe măsură ce modelele devin mai complexe, devine aproape imposibil pentru programatori să urmărească și să corecteze fiecare pas al procesului de „gândire” al AI-ului.
Neurosymbolic AI combină învățarea predictivă a rețelelor neuronale cu predarea IA a unei serii de reguli formale pe care oamenii le învață pentru a putea delibera mai fiabil. Acestea includ reguli logice, cum ar fi „dacă a atunci b”, cum ar fi „dacă plouă, atunci totul afară este în mod normal ud”; reguli matematice, cum ar fi „dacă a = b și b = c atunci a = c”; și semnificațiile convenite ale unor lucruri precum cuvinte, diagrame și simboluri. Unele dintre acestea vor fi introduse direct în sistemul de inteligență artificială, în timp ce altele le va deduce singură analizând datele sale de antrenament și efectuând „extragerea cunoștințelor”.
Acest lucru ar trebui să creeze o inteligență artificială care nu va avea niciodată halucinații și va învăța mai rapid și mai inteligent, organizându-și cunoștințele în părți clare și reutilizabile. De exemplu, dacă inteligența artificială are o regulă conform căreia lucrurile sunt ude afară atunci când plouă, nu este nevoie să rețină fiecare exemplu al lucrurilor care ar putea fi ude afară – regula poate fi aplicată oricărui obiect nou, chiar și unuia pe care nu l-a mai văzut niciodată.
În timpul dezvoltării modelului, inteligența artificială neurosimbolică integrează, de asemenea, învățarea și raționamentul formal folosind un proces cunoscut sub numele de „ciclul neurosimbolic”. Aceasta implică o inteligență artificială parțial antrenată care extrage reguli din datele sale de antrenament, apoi insuflă aceste cunoștințe consolidate înapoi în rețea înainte de antrenamentul ulterior cu date, scrie Live Science.
Integrarea regulilor formale în rețelele neuronale aduce mai multe beneficii:
Prima etapă a inteligenței artificiale, în anii 1980, a fost bazată pe AI simbolică – calculatoarele învățau reguli formale. A urmat epoca „deep learning” în anii 2010, iar neurosymbolic AI este considerată de mulți ca fiind „al treilea val”.
Această abordare este deja aplicată cu succes în domenii specializate, unde regulile pot fi bine definite. De exemplu, Google a folosit neurosymbolic AI în AlphaFold (pentru prezicerea structurilor proteinelor, util în descoperirea de medicamente) și AlphaGeometry (pentru rezolvarea problemelor complexe de geometrie).
În cazul AI-urilor cu aplicații mai generale, China a dezvoltat DeepSeek, care folosește o tehnică de „distilare” a cunoștințelor, un pas spre neurosymbolic AI. Totuși, pentru ca această abordare să fie viabilă la scară largă, este nevoie de cercetare suplimentară pentru rafinarea extragerii de reguli generale și a organizării cunoașterii.
Dacă inteligența artificială va continua să progreseze, va fi nevoie de sisteme care pot învăța rapid din puține exemple, care își pot verifica raționamentul, pot folosi cunoștințele dobândite în contexte noi și pot raționa fiabil. Neurosymbolic AI ar putea oferi chiar o alternativă la reglementare, deoarece verificările și echilibrele ar fi integrate direct în arhitectura sistemelor și, eventual, standardizate la nivel de industrie.
Deși mai este mult de parcurs, neurosymbolic AI deschide o cale promițătoare către o inteligență artificială mai sigură, mai corectă și mai eficientă – una care nu doar să prezică, ci și să înțeleagă.