Deși LLM impresionează prin versatilitate, companiile migrează spre SLM, mai ieftine, eficiente și ușor de adaptat nevoilor specifice.
Modelele mai mici și mai agile câștigă teren în mediul corporativ
Ritmul încetinit al progreselor în inteligența artificială generativă de ultimă generație este un semn că LLM-urile nu prea își îndeplinesc promisiunile, comentează sursa citatată. Declinul aparent ar putea fi explicat prin ascensiunea alternativelor mai mici și mai agile, care câștigă teren în mediul corporativ. Multe companii preferă modele personalizate, adaptate nevoilor lor specifice. Aceste așa-numite modele lingvistice mici (SLM) sunt mai ieftine decât LLM-urile universale, a căror inteligență, „asemănătoare cu cea a unui zeu”, poate părea, uneori, inutilă. „Chatbotul de resurse umane nu are nevoie să știe fizică avansată”, explică David Cox, șeful cercetării în domeniul modelelor AI la IBM.
Pe lângă faptul că sunt la fel de ușor de rulat pe infrastructura IT internă a unei companii, ca și prin furnizori de servicii cloud, SLM-urile pot fi chiar mai utile pentru agenții AI, care efectuează sarcini de muncă alături sau în locul oamenilor. Dimensiunea lor mai mică le face deosebit de potrivite pentru smartphone-uri, mașini autonome, roboți și alte dispozitive – unde eficiența energetică și viteza sunt esențiale. Dacă aceste modele devin tot mai fiabile, ele ar putea valida decizia Apple și a altor producători de dispozitive de a nu investi sume uriașe în LLM-uri bazate pe cloud.
:format(webp):quality(80)/https://www.putereafinanciara.ro/wp-content/uploads/2025/07/motherboard-circuit-technology-remixed-media-1024x683.jpg)
AI / Foto: Freepik
Mai mic este mai frumos
Nu există o definiție precisă a ceea ce constituie un model lingvistic mic versus unul mare. Diferența se rezumă la numărul de parametri pe care sunt antrenate modelele — adică setările numerice din „creierul” modelului – care îl ajută să înțeleagă datele. LLM-urile ajung la sute de miliarde de parametri. SLM-urile pot fi antrenate pe 40 de miliarde sau mai puțin, uneori chiar sub 1 miliard în cazul celor foarte mici.
Îmbunătățirile în antrenarea SLM-urilor le-au ajutat să recupereze decalajul față de LLM-uri. Tot mai des, modelele mici sunt „învățate” de cele mari, în loc să fie nevoite să parcurgă singure internetul. Artificial Analysis, o firmă de evaluare, spune că într-o varietate de teste, un model de 9 miliarde de parametri numit Nvidia Nemotron Nano, lansat recent de producătorul de cipuri AI, depășește un model Llama lansat în aprilie de Meta, gigantul social media, care este de 40 de ori mai mare. Recuperarea a devenit rutină. „Modelele mici de azi sunt mult mai capabile decât cele mari de anul trecut”, afirmă Mohit Agrawal de la Counterpoint, o firmă de cercetare de piață în tehnologie.
Performanțele mai bune au atras clienți corporativi
Gartner, o companie de prognoze IT, spune că defectele binecunoscute ale LLM-urilor, precum „halucinațiile”, au creat o „oboseală a utilizatorilor”. În schimb, firmele vor modele mai specializate, antrenate pe date din industrii specifice. Anul acesta, cererea corporativă pentru astfel de modele este estimată să crească de două ori mai rapid decât pentru LLM-uri, chiar dacă de la o bază mai mică. Pe termen lung, Gartner se așteaptă ca tot mai multe dintre aceste modele specializate să fie dezvoltate intern de companii.
Un alt motiv al popularității crescânde a SLM-urilor este economia. Companiile au trecut de la abordarea „cheltuie orice”, din primele zile ale AI generative, la o concentrare mai mare pe rentabilitatea investițiilor.
Deși LLM-urile pot fi în continuare folosite pentru multe sarcini, firmele pot economisi bani folosind SLM-uri pentru joburi discrete și repetitive. După cum spune un mare investitor de capital de risc: ai nevoie de un Boeing 777 ca să zbori de la San Francisco la Beijing, dar nu și de la San Francisco la Los Angeles. „Aplicarea celor mai puternice modele pentru toate problemele nu are sens”, adaugă el.
:format(webp):quality(80)/https://www.putereafinanciara.ro/wp-content/uploads/2025/05/shutterstock_1689452017-1024x576.jpg)
Foto: Shutterstock
Modelele mici pot rula și pe tipuri mai ieftine de cipuri
Pentru a ilustra economia, Cox de la IBM menționează un produs al companiei sale, Docling, care transformă documente PDF, precum chitanțele, în date stocabile. Acesta rulează pe un model „minuscul” cu circa 250 de milioane de parametri. El îl numește un instrument util, dar care nu ar fi rentabil dacă ar fi rulat pe un LLM. Modelele mici pot rula și pe tipuri mai ieftine de cipuri. Cele mai mici pot folosi unități centrale de procesare (CPU), „caii de povară” ai informaticii generale. Acestea ar înlocui unitățile grafice (GPU) — cele care au făcut din Nvidia cea mai valoroasă companie din lume. Acesta ar putea fi un argument puternic de vânzare: GPU-urile, spune Cox, sunt „Ferrari-uri pretențioase, mereu în service”.
SLM-urile ar putea deveni și mai atractive, pe măsură ce firmele implementează mai mulți agenți AI. Un articol puțin observat, publicat în iunie de Nvidia Research, afirmă direct că „modelele lingvistice mici, și nu cele mari, sunt viitorul AI-ului agentic”. Articolul notează că, în prezent, majoritatea agenților sunt alimentați de LLM-uri, găzduite de furnizorii de cloud. Investițiile uriașe în infrastructura cloud pentru AI sugerează că piața presupune că LLM-urile vor rămâne motoarele AI-ului agentic. Articolul contestă această presupunere, argumentând că SLM-urile sunt suficient de puternice pentru a gestiona sarcini agentice și mult mai economice.
De exemplu, un model de 7 miliarde de parametri poate fi de 10 până la 30 de ori mai ieftin de rulat decât unul de până la 25 de ori mai mare.
Acesta sugerează că SLM-urile ar putea duce la o abordare de tip „Lego” pentru construirea agenților. Companiile folosesc mici experți specializați, în loc de o singură inteligență LLM monolitică.
:format(webp):quality(80)/https://www.putereafinanciara.ro/wp-content/uploads/2025/05/Inteligenta-artificiala-1024x682.jpg)
Foto: Pixabay.com
Clienții corporativi vor modele „de toate formele și dimensiunile”
Articolul, care ridică întrebări despre banii investiți în infrastructura cloud pentru AI agentic, nu reflectă strategia Nvidia, spune Kari Briski, director executiv al companiei. Clienții corporativi vor modele „de toate formele și dimensiunile”. Cele mai mari modele sunt mai bune la sarcinile cele mai dificile decât cele mici. Mai mult, spune ea, este important să se continue împingerea frontierelor LLM-urilor, deoarece acestea devin profesori mai buni pentru SLM-uri.
Indiferent dacă SLM-urile vor înlocui sau nu LLM-urile, diversitatea este în creștere. LLM-urile „atotștiutoare” vor rămâne importante pentru aplicații de consum, precum ChatGPT al OpenAI. Totuși, chiar și OpenAI își schimbă focusul. GPT-5 conține modele interne de diferite dimensiuni și puteri, pe care le folosește în funcție de complexitatea sarcinii.
Apple pare să fi pierdut cursa
Pe măsură ce SLM-urile devin mai abile, ele ar putea îmbunătăți și reputația AI-ului pe dispozitive. Agrawal de la Counterpoint se așteaptă ca Apple să evidențieze potențialul modelelor mici în cadrul lansării unui iPhone mai subțire, marți. „Apple Intelligence”, produsul AI al companiei, care folosește SLM-uri pentru anumite sarcini direct pe iPhone. Delegă sarcinile mai grele către cloud și asta ar putea fi direcția viitoare. „Nu este vorba că au pierdut trenul”, spune el despre eforturile dezamăgitoare ale Apple în AI până acum. Având în vedere influența companiei, „poate oricând să urce în următorul tren”.
Pentru moment, cea mai mare parte a atenției rămâne pe LLM-uri. Deși giganți cloud precum Microsoft și Google au construit modele extrem de mici, investițiile ar putea merge în centre de date pentru antrenarea și găzduirea celor mai mari modele. Aceasta ar putea fi o viziune discutabilă. Având în vedere meritele relative ale SLM-urilor, abordarea mai lentă a Apple s-ar putea dovedi justificată pe termen lung.