Prima pagină » Credința în zeii AI atotștiutori a intrat în declin

Credința în zeii AI atotștiutori a intrat în declin

Credința în zeii AI atotștiutori a intrat în declin
Credința în zeii AI atotștiutori a intrat în declin

Deși LLM impresionează prin versatilitate, companiile migrează spre SLM, mai ieftine, eficiente și ușor de adaptat nevoilor specifice.

Când se vorbește despre progresul modelelor lingvistice de mari dimensiuni (LLM), cea mai la îndemână analogie este cu smartphone-urile. Primele zile ale lui ChatGPT au fost la fel de revoluționare ca lansarea iPhone-ului de la Apple, în 2007. Dar avansurile inteligenței artificiale au început să semene mai degrabă cu actualizări banale de telefoane.
GPT-5, cel mai recent model al OpenAI, este un exemplu. A stârnit mai puțin entuziasm decât iPhone 17, care urmează să fie prezentat pe 9 septembrie, se arată într-o analiză The Economist.

Modelele mai mici și mai agile câștigă teren în mediul corporativ

Ritmul încetinit al progreselor în inteligența artificială generativă de ultimă generație este un semn că LLM-urile nu prea își îndeplinesc promisiunile, comentează sursa citatată. Declinul aparent ar putea fi explicat prin ascensiunea alternativelor mai mici și mai agile, care câștigă teren în mediul corporativ. Multe companii preferă modele personalizate, adaptate nevoilor lor specifice. Aceste așa-numite modele lingvistice mici (SLM) sunt mai ieftine decât LLM-urile universale, a căror inteligență, „asemănătoare cu cea a unui zeu”, poate părea, uneori, inutilă. „Chatbotul de resurse umane nu are nevoie să știe fizică avansată”, explică David Cox, șeful cercetării în domeniul modelelor AI la IBM.

Pe lângă faptul că sunt la fel de ușor de rulat pe infrastructura IT internă a unei companii, ca și prin furnizori de servicii cloud, SLM-urile pot fi chiar mai utile pentru agenții AI, care efectuează sarcini de muncă alături sau în locul oamenilor. Dimensiunea lor mai mică le face deosebit de potrivite pentru smartphone-uri, mașini autonome, roboți și alte dispozitive – unde eficiența energetică și viteza sunt esențiale. Dacă aceste modele devin tot mai fiabile, ele ar putea valida decizia Apple și a altor producători de dispozitive de a nu investi sume uriașe în LLM-uri bazate pe cloud.

Piața de cipuri bazate pe inteligență artificială va crește cu 30% pe an până în 2030

AI / Foto: Freepik

Mai mic este mai frumos

Nu există o definiție precisă a ceea ce constituie un model lingvistic mic versus unul mare. Diferența se rezumă la numărul de parametri pe care sunt antrenate modelele — adică setările numerice din „creierul” modelului – care îl ajută să înțeleagă datele. LLM-urile ajung la sute de miliarde de parametri. SLM-urile pot fi antrenate pe 40 de miliarde sau mai puțin, uneori chiar sub 1 miliard în cazul celor foarte mici.

Îmbunătățirile în antrenarea SLM-urilor le-au ajutat să recupereze decalajul față de LLM-uri. Tot mai des, modelele mici sunt „învățate” de cele mari, în loc să fie nevoite să parcurgă singure internetul. Artificial Analysis, o firmă de evaluare, spune că într-o varietate de teste, un model de 9 miliarde de parametri numit Nvidia Nemotron Nano, lansat recent de producătorul de cipuri AI, depășește un model Llama lansat în aprilie de Meta, gigantul social media, care este de 40 de ori mai mare. Recuperarea a devenit rutină. „Modelele mici de azi sunt mult mai capabile decât cele mari de anul trecut”, afirmă Mohit Agrawal de la Counterpoint, o firmă de cercetare de piață în tehnologie.

Performanțele mai bune au atras clienți corporativi

Gartner, o companie de prognoze IT, spune că defectele binecunoscute ale LLM-urilor, precum „halucinațiile”, au creat o „oboseală a utilizatorilor”. În schimb, firmele vor modele mai specializate, antrenate pe date din industrii specifice. Anul acesta, cererea corporativă pentru astfel de modele este estimată să crească de două ori mai rapid decât pentru LLM-uri, chiar dacă de la o bază mai mică. Pe termen lung, Gartner se așteaptă ca tot mai multe dintre aceste modele specializate să fie dezvoltate intern de companii.

Un alt motiv al popularității crescânde a SLM-urilor este economia. Companiile au trecut de la abordarea „cheltuie orice”, din primele zile ale AI generative, la o concentrare mai mare pe rentabilitatea investițiilor.

Deși LLM-urile pot fi în continuare folosite pentru multe sarcini, firmele pot economisi bani folosind SLM-uri pentru joburi discrete și repetitive. După cum spune un mare investitor de capital de risc: ai nevoie de un Boeing 777 ca să zbori de la San Francisco la Beijing, dar nu și de la San Francisco la Los Angeles. „Aplicarea celor mai puternice modele pentru toate problemele nu are sens”, adaugă el.

Granițe în virtual. Ce înseamnă „splinternetul” și cum va schimba lumea pe care o știm / Foto: Shutterstock

Foto: Shutterstock

Modelele mici pot rula și pe tipuri mai ieftine de cipuri

Pentru a ilustra economia, Cox de la IBM menționează un produs al companiei sale, Docling, care transformă documente PDF, precum chitanțele, în date stocabile. Acesta rulează pe un model „minuscul” cu circa 250 de milioane de parametri. El îl numește un instrument util, dar care nu ar fi rentabil dacă ar fi rulat pe un LLM. Modelele mici pot rula și pe tipuri mai ieftine de cipuri. Cele mai mici pot folosi unități centrale de procesare (CPU), „caii de povară” ai informaticii generale. Acestea ar înlocui unitățile grafice (GPU) — cele care au făcut din Nvidia cea mai valoroasă companie din lume. Acesta ar putea fi un argument puternic de vânzare: GPU-urile, spune Cox, sunt „Ferrari-uri pretențioase, mereu în service”.

SLM-urile ar putea deveni și mai atractive, pe măsură ce firmele implementează mai mulți agenți AI. Un articol puțin observat, publicat în iunie de Nvidia Research, afirmă direct că „modelele lingvistice mici, și nu cele mari, sunt viitorul AI-ului agentic”. Articolul notează că, în prezent, majoritatea agenților sunt alimentați de LLM-uri, găzduite de furnizorii de cloud. Investițiile uriașe în infrastructura cloud pentru AI sugerează că piața presupune că LLM-urile vor rămâne motoarele AI-ului agentic. Articolul contestă această presupunere, argumentând că SLM-urile sunt suficient de puternice pentru a gestiona sarcini agentice și mult mai economice.

De exemplu, un model de 7 miliarde de parametri poate fi de 10 până la 30 de ori mai ieftin de rulat decât unul de până la 25 de ori mai mare.

Acesta sugerează că SLM-urile ar putea duce la o abordare de tip „Lego” pentru construirea agenților. Companiile folosesc mici experți specializați, în loc de o singură inteligență LLM monolitică.

Foto: Pixabay.com

Clienții corporativi vor modele „de toate formele și dimensiunile”

Articolul, care ridică întrebări despre banii investiți în infrastructura cloud pentru AI agentic, nu reflectă strategia Nvidia, spune Kari Briski, director executiv al companiei. Clienții corporativi vor modele „de toate formele și dimensiunile”. Cele mai mari modele sunt mai bune la sarcinile cele mai dificile decât cele mici. Mai mult, spune ea, este important să se continue împingerea frontierelor LLM-urilor, deoarece acestea devin profesori mai buni pentru SLM-uri.

Indiferent dacă SLM-urile vor înlocui sau nu LLM-urile, diversitatea este în creștere. LLM-urile „atotștiutoare” vor rămâne importante pentru aplicații de consum, precum ChatGPT al OpenAI. Totuși, chiar și OpenAI își schimbă focusul. GPT-5 conține modele interne de diferite dimensiuni și puteri, pe care le folosește în funcție de complexitatea sarcinii.

Apple pare să fi pierdut cursa

Pe măsură ce SLM-urile devin mai abile, ele ar putea îmbunătăți și reputația AI-ului pe dispozitive. Agrawal de la Counterpoint se așteaptă ca Apple să evidențieze potențialul modelelor mici în cadrul lansării unui iPhone mai subțire, marți. „Apple Intelligence”, produsul AI al companiei, care folosește SLM-uri pentru anumite sarcini direct pe iPhone. Delegă sarcinile mai grele către cloud și asta ar putea fi direcția viitoare. „Nu este vorba că au pierdut trenul”, spune el despre eforturile dezamăgitoare ale Apple în AI până acum. Având în vedere influența companiei, „poate oricând să urce în următorul tren”.

Pentru moment, cea mai mare parte a atenției rămâne pe LLM-uri. Deși giganți cloud precum Microsoft și Google au construit modele extrem de mici, investițiile ar putea merge în centre de date pentru antrenarea și găzduirea celor mai mari modele. Aceasta ar putea fi o viziune discutabilă. Având în vedere meritele relative ale SLM-urilor, abordarea mai lentă a Apple s-ar putea dovedi justificată pe termen lung.

Alte articole importante
Arbitraj secret la Stockholm: acuzații de mită și fraudă împotriva Shell, Eni și Chevron
Arbitraj secret la Stockholm: acuzații de mită și fraudă împotriva Shell, Eni și Chevron
Un arbitraj internațional desfășurat la Stockholm a adus în prim-plan acuzații grave de corupție și fraudă care zguduie industria petrolieră globală. Guvernul Kazahstanului susține că oficiali ai statului au acceptat mită pentru a aproba costuri de miliarde de dolari facturate de mari companii petroliere internaționale, printre care Shell, Eni și Chevron. Cazul vizează unul dintre […]
FPTR reacționează dur după declarațiile ministrului Irineu Darău: „Turismul nu este sursa majoră a evaziunii fiscale”
FPTR reacționează dur după declarațiile ministrului Irineu Darău: „Turismul nu este sursa majoră a evaziunii fiscale”
Federația Patronatelor din Turismul Românesc (FPTR) solicită scuze publice din partea ministrului Economiei, Digitalizării, Antreprenoriatului și Turismului, Irineu Darău, acuzându-l că a făcut declarații care induc ideea că operatorii din turism ar practica, în mod generalizat, evaziunea fiscală. Reprezentanții patronatelor susțin că astfel de afirmații stigmatizează un sector economic important și creează confuzie între activitățile […]
Cina de un trilion de dolari. CEO-ul Jensen Huang anunță la că gigantul Nvidia vrea să facă o investiție „imensă” în OpenAI
Cina de un trilion de dolari. CEO-ul Jensen Huang anunță la că gigantul Nvidia vrea să facă o investiție „imensă” în OpenAI
Gigantul Nvidia intenționează să facă o investiție „imensă” în OpenAI, probabil cea mai mare din istoria sa, a declarat în weekend CEO-ul Jensen Huang, negând că ar fi nemulțumit de producătorul ChatGPT, potrivit CNBC. Nvidia a obținut în ianuarie acordul administrației de la Washington pentru a vinde cipurile AI H200 către piața din China. Anunțul […]
Automatul de aur, luat cu asalt în mallurile din Shanghai. Chinezii stau la coadă să topească bijuteriile de familie
Automatul de aur, luat cu asalt în mallurile din Shanghai. Chinezii stau la coadă să topească bijuteriile de familie
Zeci de oameni s-au înghesuit în jurul unei mașini automate de reciclare a aurului dintr-un mall din Shanghai, sperând să topească bijuterii de aur și argint pentru bani, în timp ce prețurile metalelor prețioase au atins niveluri record. Pe 29 ianuarie, prețul aurului a depășit pentru prima dată pragul de 5.500 de dolari uncia, stabilind […]
Ford și Xiaomi explorează un parteneriat pentru mașini electrice
Companii
Ford și Xiaomi explorează un parteneriat pentru mașini electrice
Companiile Ford și Xiaomi au purtat discuții pentru un posibil parteneriat în domeniul vehiculelor electrice. Colaborarea ar putea combina expertiza producătorului american în sectorul auto cu tehnologia și inovația gigantului chinez în domeniul electronicii și conectivității. Posibilă colaborare între Ford și Xiaomi pe vehicule electrice Ford și Xiaomi au purtat discuții privind posibilitatea înființării unei […]
Portugalia comandă primul portavion european pentru drone
Portugalia comandă primul portavion european pentru drone
Portugalia a comandat primul portavion european pentru drone, care va fi construit în România cu 132 de milioane de euro. Acesta oferă o flexibilitate ridicată și costuri mai mici și, totodată, poate schimba profilurile misiunilor în decurs de o săptămână. Proiectul marchează un pas important în dezvoltarea capacităților navale autonome și a industriei militare europene. Primul […]