Prima pagină » Modelele AI de ultimă generație de la OpenAI și DeepSeek clachează când problemele devin prea dificile, arată un studiu Apple

Modelele AI de ultimă generație de la OpenAI și DeepSeek clachează când problemele devin prea dificile, arată un studiu Apple

Modelele AI de ultimă generație de la OpenAI și DeepSeek clachează când problemele devin prea dificile, arată un studiu Apple
DeepSeek pregătește un nou agent AI până la sfârșitul lui 2025

Un nou studiu realizat de Apple evidențiază limitările modelelor de inteligență artificială de ultimă generație dezvoltate de OpenAI și DeepSeek, care se prăbușesc complet atunci când întâlnesc probleme prea complexe sau dificile. În ciuda performanțelor impresionante în anumite domenii, aceste tehnologii demonstrează vulnerabilități semnificative în fața provocărilor avansate, subliniind necesitatea unor îmbunătățiri continue pentru a le asigura fiabilitatea și eficiența în situații critice. Analiza oferă o perspectivă importantă asupra evoluției și limitărilor actuale ale inteligenței artificiale de ultimă generație.

Un studiu recent realizat de Apple a stârnit controverse în domeniul inteligenței artificiale, demonstrând că modelele de raționament AI suferă un „colaps total al acurateței” atunci când sunt suprasolicitate cu probleme complexe. Conform cercetătorilor, aceste modele nu sunt atât de inteligente pe cât se credea, iar performanța lor scade dramatic când sarcinile depășesc un anumit prag de dificultate, scrie Live Science.

Ce sunt modelele de raționament și de ce contează

Modelele de raționament, precum Claude de la Meta, o3 de la OpenAI și R1 de la DeepSeek, sunt modele lingvistice mari (LLM) specializate care alocă mai mult timp și resurse de calcul pentru a genera răspunsuri mai precise comparativ cu modelele tradiționale. Acestea sunt considerate de marile companii tehnologice drept pași importanți spre dezvoltarea inteligenței artificiale generale (AGI), adică sisteme capabile să depășească performanța umană în majoritatea sarcinilor.

Totuși, studiul publicat pe 7 iunie pe site-ul Apple Machine Learning Research aduce o lovitură serioasă acestor așteptări. Cercetătorii arată că modelele de raționament nu doar că nu demonstrează un raționament generalizat, ci chiar „se prăbușesc” atunci când dificultatea problemelor depășește un anumit nivel critic.

„Prin experimente extinse pe diverse puzzle-uri, am demonstrat că modelele lingvistice de ultimă generație suferă un colaps complet al acurateței dincolo de anumite praguri de complexitate,” scriu autorii studiului.

Mai mult, modelele prezintă o limită de scalare contraintuitivă: efortul lor de raționament crește odată cu complexitatea problemei până la un punct, apoi scade, chiar dacă dispun de un buget adecvat de tokeni (unități de procesare a datelor).

Cum funcționează modelele de raționament și de ce efortul lor poate scădea

Modelele lingvistice mari învață prin absorbția unor cantități uriașe de date generate de oameni, folosind aceste informații pentru a produce modele probabilistice. Modelele de raționament încearcă să îmbunătățească acuratețea printr-un proces numit „lanț de gândire” (chain-of-thought), care implică generarea unor răspunsuri în mai mulți pași, imitând modul în care oamenii aplică logica pentru a ajunge la o concluzie.

Acest proces permite chatbot-urilor să-și reevalueze raționamentul și să abordeze sarcini mai complexe cu o precizie mai mare, explicându-și pas cu pas logica în limbaj clar. Totuși, fiind bazat pe estimări statistice și nu pe înțelegere reală, modelele au tendința de a „halucina” – adică de a genera răspunsuri eronate, de a inventa informații sau de a oferi sfaturi bizare și uneori dăunătoare.

Problema halucinațiilor crește odată cu complexitatea modelelor

Un raport tehnic OpenAI relevă că modelele de raționament sunt mult mai susceptibile la halucinații decât modelele generice. Spre exemplu, modelele o3 și o4-mini au generat informații eronate în 33%, respectiv 48% din cazuri, în timp ce modelul mai vechi o1 avea o rată de doar 16%. Reprezentanții OpenAI admit că nu înțeleg pe deplin cauzele și că „este nevoie de cercetări suplimentare”.

Testarea modelelor pe puzzle-uri clasice: performanțe în scădere la dificultăți mari

Pentru a analiza mai profund aceste probleme, cercetătorii Apple au supus modelelor generice și de raționament patru puzzle-uri clasice: traversarea râului, săritul pieselor pe tabla de cărți, stivuirea blocurilor și Turnul din Hanoi. Complexitatea a fost ajustată prin adăugarea de piese suplimentare.

La nivel scăzut de dificultate, modelele generice au avut un avantaj, rezolvând problemele fără costurile suplimentare ale lanțului de gândire. Pe măsură ce dificultatea a crescut, modelele de raționament au preluat conducerea, însă la nivel înalt de complexitate performanța ambelor tipuri de modele a scăzut până aproape de zero.

Mai mult, după depășirea unui prag critic, modelele de raționament au redus numărul de tokeni alocați sarcinilor complexe, indicând o scădere a efortului de raționament și limitări fundamentale în menținerea lanțurilor de gândire. Aceste probleme au persistat chiar și când li s-a oferit algoritmul soluției.

Concluzii și implicații: modelele se bazează mai mult pe recunoașterea tiparelor decât pe logică emergentă

Rezultatele sugerează că modelele actuale depind mai mult de recunoașterea tiparelor decât de un raționament logic autentic, contrazicând afirmațiile despre apropierea de o inteligență artificială superioară. Totuși, cercetătorii recunosc că testele acoperă doar o „feliuță” din gama largă de sarcini de raționament posibile.

Poziția apple în cursa AI și reacții din industrie

Apple, cu asistentul său Siri, este considerată în urma competitorilor, Siri fiind cu 25% mai puțin precis decât ChatGPT într-un studiu recent. Compania se concentrează mai degrabă pe dezvoltarea unor AI eficiente pe dispozitive locale decât pe modele mari de raționament.

Această poziție a generat critici și ironii, unii considerând că Apple încearcă să minimalizeze progresul altor companii. Profesorul Pedros Domingos a comentat ironic că „strategia genială a Apple în AI este să demonstreze că AI-ul nu există”.

Reacții pozitive: un apel la cercetare riguroasă

Pe de altă parte, mulți cercetători au salutat studiul Apple ca pe o doză necesară de realism în fața așteptărilor exagerate privind AI-ul superinteligent.

Andriy Burkov, expert AI și fost lider de echipă la Gartner, a declarat că Apple a făcut un serviciu imens domeniului, demonstrând prin publicații riguroase că modelele lingvistice mari sunt doar rețele neuronale cu limitele inerente acestora. El speră ca acum comunitatea științifică să abordeze studiul acestor modele cu rigurozitate matematică, nu cu abordări metaforice sau psihologice.

Alte articole importante
Clienții First Bank primesc clarificări după fuziunea cu Intesa Sanpaolo. Ce trebuie făcut pentru reactivarea serviciilor
Clienții First Bank primesc clarificări după fuziunea cu Intesa Sanpaolo. Ce trebuie făcut pentru reactivarea serviciilor
După trei zile în care clienții First Bank nu au avut acces la fonduri, Intesa Sanpaolo Bank România a venit cu clarificări privind procesul de migrare. Banca italiană a anunțat finalizarea integrării prin absorbția completă a First Bank, consolidându-și astfel poziția pe piața financiar-bancară din România. Fuziunea s-a desfășurat conform calendarului, iar toate datele și […]
În România, puterea de cumpărare este cu 45% sub media europeană
În România, puterea de cumpărare este cu 45% sub media europeană
Liechtenstein ocupă primul loc în clasamentul puterii de cumpărare în Europa în 2025, cu un avans semnificativ față de celelalte țări analizate, potrivit noului studiu „NIQ Purchasing Power Europe 2025”, care a fost publicat, marți, în statele incluse în cercetare. Elveția și Luxemburg ocupă locurile doi și trei. 26 dintre cele 42 de țări analizate […]
Moneda digitală Bitcoin înregistrează un recul istoric în octombrie
Moneda digitală Bitcoin înregistrează un recul istoric în octombrie
Moneda digitală Bitcoin a încheiat luna octombrie în scădere, întrerupând o serie de șapte ani de creșteri lunare. Această evoluție contrastează cu performanțele istorice ale monedei digitale în această lună, evidențiind volatilitatea ridicată a activelor digitale. Bitcoin a suferit în octombrie prima pierdere lunară din ultimii 7 ani Bitcoin a încheiat luna octombrie în scădere […]
ANALIZĂ
Sistarea ajutorului american devastează sistemele de sănătate din Africa
Sistarea ajutorului american devastează sistemele de sănătate din Africa
Decizia Statelor Unite de a reduce ajutorul bilateral pentru sănătate afectează milioane de africani. Experții estimează că noile propuneri de buget ar putea pune în pericol până la 1 milion de vieți, în special prin creșterea cazurilor netratate de HIV, tuberculoză și malarie. ONU estimează că, până în 2030, ar putea exista peste 6 milioane […]
China vizează să trimită oameni pe Lună până în 2030
China vizează să trimită oameni pe Lună până în 2030
China a anunțat că va trimite oameni pe Lună până în 2030, ca parte a planurilor ambițioase de a deveni lider în explorarea spațiului. Planul marchează o etapă importantă în competiția globală pentru explorarea spațiului și subliniază eforturile Beijingului de a-și consolida poziția ca superputere tehnologică și științifică. Până în 2030, China intenționează să trimită […]
ANALIZĂ
Europa nu și-a mai revenit după căderea Zidului Berlinului
Europa nu și-a mai revenit după căderea Zidului Berlinului
Căderea Zidului Berlinului a părut o imensă victorie. În realitate, a deschis o criză care încă ne modelează drumul la nivel regional și care încă pune la încercare slăbiciunile bătrânului continent. După 1989, Europa a pierdut multe dintre noile confruntări ideologice, și-a pierdut conducerea și direcția, scrie Bloomberg. Rezultatele se văd în patru domenii esențiale: […]