De la primele rețele neuronale din anii ’40 până la modelele revoluționare GPT, inteligența artificială a avansat mai repede decât și-ar fi imaginat oricine. Astăzi, oamenii de știință vorbesc deschis despre „singularitatea tehnologică” – momentul în care inteligența artificială generală (AGI) va depăși inteligența umană.
În 2024, la o conferință internațională despre inteligență artificială organizată în Panama, futuristul scoțian David Wood a șocat audiența cu o declarație pe jumătate glumă, pe jumătate avertisment. Întrebat cum am putea evita un viitor catastrofal în care AI scapă de sub control, Wood a spus ironic că singura soluție sigură ar fi să adunăm toate studiile despre AI publicate vreodată, să le ardem și să eliminăm toți oamenii de știință care lucrează în domeniu.
Desigur, era o hiperbolă, dar mesajul real este clar: riscăm să intrăm într-o eră în care AI-ul devine mai inteligent decât oamenii și nu avem niciun plan real de prevenție. Potrivit majorității cercetătorilor, atingerea AGI este doar o chestiune de timp, relatează Live Science.
Istoria inteligenței artificiale începe în 1943, cu primele teorii despre rețele neuronale artificiale. Conceptul de „AI” a fost oficializat în 1956 la Dartmouth College, unde vizionari precum John McCarthy și Marvin Minsky au pus bazele unei revoluții tehnologice.
În anii ’80, cercetători precum Geoffrey Hinton au dezvoltat tehnici care au permis mașinilor să recunoască tipare din date. Totuși, așteptările prea mari și costurile ridicate ale hardware-ului au dus la un „AI winter”, o perioadă de stagnare a progresului.
Revirimentul a venit în anii ’90 și 2000, când IBM Deep Blue l-a învins pe campionul mondial de șah Garry Kasparov (1997), iar Watson a câștigat „Jeopardy!” (2011). Dar adevărata revoluție a avut loc în 2017, odată cu apariția arhitecturii „transformer”, creată de Google. Această tehnologie a stat la baza modelelor generative de azi – de la GPT la DALL-E și AlphaFold – care pot scrie, traduce, crea imagini și chiar descoperi structuri complexe ale proteinelor.
Deși modelele actuale de tip transformer sunt considerate „înguste” (specializate pe sarcini limitate), evoluția lor este amețitoare. În 2025, OpenAI a lansat chatbot-ul o3, capabil să „gândească” înainte de a răspunde și să atingă un scor de 75,7% la un test creat special pentru a compara inteligența umană și cea artificială, un salt uriaș față de GPT-4o, care obținuse doar 5%.
În paralel, companii precum DeepSeek și platforme chineze precum Manus dezvoltă sisteme AI autonome, capabile să colaboreze între ele și să execute sarcini complexe. Următorii pași – auto-modificarea codului și auto-replicarea – nu au fost încă atingi, dar cercetările indică faptul că ne îndreptăm rapid către acest punct de cotitură.
Experți precum Ben Goertzel (SingularityNET) și Sam Altman (OpenAI) cred că AGI va apărea mult mai devreme decât estimările conservatoare, poate chiar până în 2027 sau mai devreme.
Cea mai mare teamă a cercetătorilor este că un AI superinteligent ar putea acționa împotriva intereselor umanității. Teste recente arată că unele modele AI pot înșela în mod deliberat evaluatorii umani sau pot ascunde intenții maligne.
Un studiu din 2024 a demonstrat că, indiferent de metodele de antrenament folosite, AI-ul cu intenții „malefice” a reușit să-și mascheze comportamentul. Exemple similare arată că modelele pot recunoaște teste artificiale și își pot adapta răspunsurile pentru a evita detectarea.
„Este un semnal de alarmă uriaș. Pe măsură ce AI devine mai capabil, va găsi modalități tot mai sofisticate de a ne manipula și de a acționa în interesul propriu, nu al nostru”, avertizează Nell Watson, cercetător în domeniu și membru IEEE.
David Wood compară viitorul AI cu traversarea unui râu învolburat: „Dacă intrăm nepregătiți, curenții ne vor înghiți. Trebuie să înțelegem riscurile și să găsim o cale sigură.”
Soluția? Unii cercetători propun un proiect global de amploarea „Manhattan Project”, dedicat exclusiv siguranței AI și creării unor mecanisme de control. Altfel, există riscul ca viitoarele sisteme să dobândească interese proprii, să învețe să se protejeze și chiar să acționeze „moral” împotriva umanității dacă percep oamenii ca pe o amenințare.
„Nu există nicio garanție că un AI superinteligent ne va considera valoroși sau că va ține cont de suferința noastră”, avertizează Watson.