Prima pagină » Modelele AI de ultimă generație de la OpenAI și DeepSeek clachează când problemele devin prea dificile, arată un studiu Apple

Modelele AI de ultimă generație de la OpenAI și DeepSeek clachează când problemele devin prea dificile, arată un studiu Apple

Modelele AI de ultimă generație de la OpenAI și DeepSeek clachează când problemele devin prea dificile, arată un studiu Apple
Foto: Shutterstock

Un nou studiu realizat de Apple evidențiază limitările modelelor de inteligență artificială de ultimă generație dezvoltate de OpenAI și DeepSeek, care se prăbușesc complet atunci când întâlnesc probleme prea complexe sau dificile. În ciuda performanțelor impresionante în anumite domenii, aceste tehnologii demonstrează vulnerabilități semnificative în fața provocărilor avansate, subliniind necesitatea unor îmbunătățiri continue pentru a le asigura fiabilitatea și eficiența în situații critice. Analiza oferă o perspectivă importantă asupra evoluției și limitărilor actuale ale inteligenței artificiale de ultimă generație.

Un studiu recent realizat de Apple a stârnit controverse în domeniul inteligenței artificiale, demonstrând că modelele de raționament AI suferă un „colaps total al acurateței” atunci când sunt suprasolicitate cu probleme complexe. Conform cercetătorilor, aceste modele nu sunt atât de inteligente pe cât se credea, iar performanța lor scade dramatic când sarcinile depășesc un anumit prag de dificultate, scrie Live Science.

Ce sunt modelele de raționament și de ce contează

Modelele de raționament, precum Claude de la Meta, o3 de la OpenAI și R1 de la DeepSeek, sunt modele lingvistice mari (LLM) specializate care alocă mai mult timp și resurse de calcul pentru a genera răspunsuri mai precise comparativ cu modelele tradiționale. Acestea sunt considerate de marile companii tehnologice drept pași importanți spre dezvoltarea inteligenței artificiale generale (AGI), adică sisteme capabile să depășească performanța umană în majoritatea sarcinilor.

Totuși, studiul publicat pe 7 iunie pe site-ul Apple Machine Learning Research aduce o lovitură serioasă acestor așteptări. Cercetătorii arată că modelele de raționament nu doar că nu demonstrează un raționament generalizat, ci chiar „se prăbușesc” atunci când dificultatea problemelor depășește un anumit nivel critic.

„Prin experimente extinse pe diverse puzzle-uri, am demonstrat că modelele lingvistice de ultimă generație suferă un colaps complet al acurateței dincolo de anumite praguri de complexitate,” scriu autorii studiului.

Mai mult, modelele prezintă o limită de scalare contraintuitivă: efortul lor de raționament crește odată cu complexitatea problemei până la un punct, apoi scade, chiar dacă dispun de un buget adecvat de tokeni (unități de procesare a datelor).

Cum funcționează modelele de raționament și de ce efortul lor poate scădea

Modelele lingvistice mari învață prin absorbția unor cantități uriașe de date generate de oameni, folosind aceste informații pentru a produce modele probabilistice. Modelele de raționament încearcă să îmbunătățească acuratețea printr-un proces numit „lanț de gândire” (chain-of-thought), care implică generarea unor răspunsuri în mai mulți pași, imitând modul în care oamenii aplică logica pentru a ajunge la o concluzie.

Acest proces permite chatbot-urilor să-și reevalueze raționamentul și să abordeze sarcini mai complexe cu o precizie mai mare, explicându-și pas cu pas logica în limbaj clar. Totuși, fiind bazat pe estimări statistice și nu pe înțelegere reală, modelele au tendința de a „halucina” – adică de a genera răspunsuri eronate, de a inventa informații sau de a oferi sfaturi bizare și uneori dăunătoare.

Problema halucinațiilor crește odată cu complexitatea modelelor

Un raport tehnic OpenAI relevă că modelele de raționament sunt mult mai susceptibile la halucinații decât modelele generice. Spre exemplu, modelele o3 și o4-mini au generat informații eronate în 33%, respectiv 48% din cazuri, în timp ce modelul mai vechi o1 avea o rată de doar 16%. Reprezentanții OpenAI admit că nu înțeleg pe deplin cauzele și că „este nevoie de cercetări suplimentare”.

Testarea modelelor pe puzzle-uri clasice: performanțe în scădere la dificultăți mari

Pentru a analiza mai profund aceste probleme, cercetătorii Apple au supus modelelor generice și de raționament patru puzzle-uri clasice: traversarea râului, săritul pieselor pe tabla de cărți, stivuirea blocurilor și Turnul din Hanoi. Complexitatea a fost ajustată prin adăugarea de piese suplimentare.

La nivel scăzut de dificultate, modelele generice au avut un avantaj, rezolvând problemele fără costurile suplimentare ale lanțului de gândire. Pe măsură ce dificultatea a crescut, modelele de raționament au preluat conducerea, însă la nivel înalt de complexitate performanța ambelor tipuri de modele a scăzut până aproape de zero.

Mai mult, după depășirea unui prag critic, modelele de raționament au redus numărul de tokeni alocați sarcinilor complexe, indicând o scădere a efortului de raționament și limitări fundamentale în menținerea lanțurilor de gândire. Aceste probleme au persistat chiar și când li s-a oferit algoritmul soluției.

Concluzii și implicații: modelele se bazează mai mult pe recunoașterea tiparelor decât pe logică emergentă

Rezultatele sugerează că modelele actuale depind mai mult de recunoașterea tiparelor decât de un raționament logic autentic, contrazicând afirmațiile despre apropierea de o inteligență artificială superioară. Totuși, cercetătorii recunosc că testele acoperă doar o „feliuță” din gama largă de sarcini de raționament posibile.

Poziția apple în cursa AI și reacții din industrie

Apple, cu asistentul său Siri, este considerată în urma competitorilor, Siri fiind cu 25% mai puțin precis decât ChatGPT într-un studiu recent. Compania se concentrează mai degrabă pe dezvoltarea unor AI eficiente pe dispozitive locale decât pe modele mari de raționament.

Această poziție a generat critici și ironii, unii considerând că Apple încearcă să minimalizeze progresul altor companii. Profesorul Pedros Domingos a comentat ironic că „strategia genială a Apple în AI este să demonstreze că AI-ul nu există”.

Reacții pozitive: un apel la cercetare riguroasă

Pe de altă parte, mulți cercetători au salutat studiul Apple ca pe o doză necesară de realism în fața așteptărilor exagerate privind AI-ul superinteligent.

Andriy Burkov, expert AI și fost lider de echipă la Gartner, a declarat că Apple a făcut un serviciu imens domeniului, demonstrând prin publicații riguroase că modelele lingvistice mari sunt doar rețele neuronale cu limitele inerente acestora. El speră ca acum comunitatea științifică să abordeze studiul acestor modele cu rigurozitate matematică, nu cu abordări metaforice sau psihologice.

Alte articole importante
Săptămână pe minus la Bursa de Valori București: peste 7 miliarde de lei șterse din capitalizare
Săptămână pe minus la Bursa de Valori București: peste 7 miliarde de lei șterse din capitalizare
Piața de capital din România a încheiat o săptămână marcată de scăderi, cu pierderi consistente în capitalizarea totală a companiilor listate. Potrivit datelor oficiale, Bursa de Valori București a pierdut aproximativ 7,2 miliarde de lei, echivalentul unui declin de 1,31%, în perioada 16–20 martie 2026. Capitalizarea totală a BVB ajuns la 544,5 miliarde de lei, […]
Motorina nu mai coboară: avertisment dur pentru România în 2026. „Prețurile rămân ridicate chiar și fără război”
Motorina nu mai coboară: avertisment dur pentru România în 2026. „Prețurile rămân ridicate chiar și fără război”
Prețurile motorinei din România vor rămâne la niveluri ridicate pe tot parcursul anului 2026, chiar și în scenariul optimist în care conflictul din Orientul Mijlociu s-ar încheia rapid. Avertismentul vine din partea expertului în energie Dumitru Chisăliță, care susține că lipsa intervenției statului riscă să amplifice dezechilibrele economice. „Piața motorinei din România se află exact […]
Câți bani oferă Meta ca să atragă creatori de pe YouTube și TikTok
Companii
Câți bani oferă Meta ca să atragă creatori de pe YouTube și TikTok
Conținutul digital a devenit o sursă reală de venit, astfel că mulți se întreabă cât plătește Meta pentru a atrage utilizatori de pe alte platforme. Diferențele de monetizare, bonusurile oferite și strategiile de fidelizare transformă această competiție într-un subiect de interes major pentru influenceri și specialiști din mediul online. Cu cât îi plătește Meta pe […]
Ce poate — și ce nu poate — învăța UE din facturile scăzute la energie ale Spaniei
Ce poate — și ce nu poate — învăța UE din facturile scăzute la energie ale Spaniei
În plină criză energetică generată de tensiunile din Orientul Mijlociu și blocajele din Strâmtoarea Ormuz, statele din Uniunea Europeană caută soluții rapide pentru a limita explozia facturilor la electricitate. În acest context, Spania pare să sfideze tendința generală, raportând costuri semnificativ mai mici pentru consumatori. Guvernul de la Madrid prezintă această performanță drept rezultatul investițiilor […]
Qatarul, lovit în plin de criza din Golf: pierderi uriașe și riscuri pentru economie
Qatarul, lovit în plin de criza din Golf: pierderi uriașe și riscuri pentru economie
Conflictul din Orientul Mijlociu produce efecte economice severe, iar Qatarul se confruntă cu unul dintre cele mai dure șocuri financiare din regiune. Dependența aproape totală de exporturile de gaz natural lichefiat (GNL) și blocajele logistice generate de tensiunile militare au pus presiune pe veniturile statului și pe stabilitatea sistemului bancar. Impactul ar putea fi fără […]
India vrea o apropiere „dramatică” de Uniunea Europeană
India vrea o apropiere „dramatică” de Uniunea Europeană
India își propune să aprofundeze semnificativ relațiile cu Uniunea Europeană, într-un context global marcat de instabilitate, inclusiv de tensiunile din Orientul Mijlociu și riscurile generate de un posibil conflict extins în jurul Iranului. Declarația a fost făcută de ministrul de externe indian, Subrahmanyam Jaishankar, care a subliniat că parteneriatul cu Europa intră într-o nouă etapă […]