Startup-ul chinezesc DeepSeek a zguduit din nou industria inteligenței artificiale, prezentând un nou model experimental ce promite eficiență sporită, costuri reduse și performanțe surprinzătoare. Totuși, specialiștii avertizează că arhitectura aduce și riscuri majore pentru siguranța și fiabilitatea tehnologiei.
China a intrat în forță în cursa globală pentru inteligența artificială. Startup-ul DeepSeek, necunoscut publicului larg până anul trecut, a reușit să stârnească o adevărată furtună în Silicon Valley după lansarea modelului R1.
Atunci, compania a demonstrat că se pot antrena modele lingvistice mari (LLM) rapid, cu resurse mai reduse și pe cipuri mai puțin puternice, contrazicând modelul clasic de dezvoltare urmat de giganții americani precum OpenAI sau Google.
Luni, DeepSeek a anunțat lansarea DeepSeek-V3.2-Exp, o versiune experimentală a actualului model V3.1-Terminus. Compania a publicat detaliile tehnice pe platforma Hugging Face, iar vestea a atras imediat atenția comunității internaționale de cercetare.
Noul sistem promite să ducă mai departe misiunea startup-ului: eficiență crescută, reducerea costurilor și partajarea tehnologiei în regim open-source.
Adina Yakefu, lider al comunității chineze Hugging Face, a declarat pentru CNBC că marea noutate adusă de V3.2 este o funcționalitate denumită „DSA – DeepSeek Sparse Attention”.
Această arhitectură permite modelului să proceseze mai bine documente lungi și conversații complexe, reducând în același timp costurile de rulare cu aproximativ 50% față de versiunea anterioară.
„Este semnificativ pentru că oferă viteza și eficiența dorită, fără o scădere vizibilă a performanței”, a subliniat și Nick Patience, vicepreședinte și expert AI la The Futurum Group.
Potrivit acestuia, noua tehnologie poate face ca puterea AI să devină accesibilă și pentru companii mici sau cercetători independenți, deschizând drumul către aplicații inovatoare.
Modelele AI iau decizii pe baza datelor de antrenament și a informațiilor noi introduse de utilizatori. Sparse attention presupune că algoritmul filtrează datele și ia în calcul doar ceea ce consideră esențial pentru rezolvarea unei sarcini.
Spre exemplu, dacă o companie aeriană vrea să stabilească cea mai bună rută între două destinații, modelul clasic ar analiza toate variantele posibile, consumând timp și resurse. Sparse attention, în schimb, elimină opțiunile nerelevante și se concentrează pe traseele viabile, reducând astfel costurile și accelerând procesul.
Ekaterina Almasque, cofondatoare a fondului BlankPage Capital, a explicat: „Practic, tai din start informațiile considerate neimportante. Astfel, economisești resurse și obții eficiență mai mare.”
Pe hârtie, Sparse Attention pare soluția ideală pentru a face modelele AI mai rapide și mai puțin costisitoare. Totuși, investitorii și cercetătorii avertizează că metoda are și dezavantaje serioase.
„Realitatea este că aceste modele pierd multe nuanțe. Problema este dacă mecanismul știe cu adevărat ce date să excludă. Dacă elimină informații importante, rezultatul final devine irelevant”, a spus Almasque, cunoscută pentru investițiile timpurii în companii precum Darktrace sau Graphcore.
Această limitare poate ridica riscuri semnificative pentru siguranța și corectitudinea modelelor AI. Excluderea unor date esențiale ar putea duce la erori periculoase, mai ales în aplicații critice precum medicină, finanțe sau transport.
Chiar și cu aceste riscuri, specialiștii recunosc potențialul uriaș al noii tehnologii. Reducerea costurilor de operare cu până la 50% ar putea democratiza accesul la AI.
Dacă până acum doar giganții din tehnologie își permiteau să ruleze modele complexe, noua abordare ar putea permite și startup-urilor sau universităților să dezvolte aplicații competitive.