Microsoft a anunțat lansarea celei de-a doua generații a propriului cip de inteligență artificială, alături de un set de instrumente software care vizează direct unul dintre cele mai importante avantaje competitive ale Nvidia. Mișcarea marchează o intensificare a competiției în piața infrastructurii pentru AI, unde marile companii de cloud încearcă să își reducă dependența de furnizorii tradiționali și să își controleze mai bine costurile și performanța.
Noul procesor, denumit „Maia 200”, urmează să fie pus în funcțiune în această săptămână într-un centru de date din Iowa, Microsoft având planuri pentru deschiderea unei a doua locații în Arizona. Cipul reprezintă a doua generație a familiei Maia, lansată inițial în 2023, și este conceput pentru a susține volume mari de sarcini AI în infrastructura de cloud a companiei, transmite Reuters. Contextul lansării este unul în care giganții cloud, precum Microsoft, Google și Amazon Web Services, care se numără printre cei mai mari clienți ai Nvidia, dezvoltă tot mai agresiv propriile soluții hardware. Scopul este nu doar optimizarea performanței, ci și diminuarea dependenței de ecosistemul Nvidia, care domină piața acceleratoarelor pentru inteligență artificială.
Pe lângă lansarea hardware, Microsoft a anunțat și un pachet de instrumente software dedicat programării cipului Maia 200. Printre acestea se regăsește Triton, un instrument open-source cu contribuții semnificative din partea OpenAI, care îndeplinește funcții similare cu Cuda, platforma software a Nvidia. Cuda este considerată de mulți analiști drept unul dintre cele mai puternice atuuri ale Nvidia, deoarece facilitează dezvoltarea și optimizarea aplicațiilor AI pentru ecosistemul său de cipuri.
Prin integrarea Triton, Microsoft încearcă să reducă barierele pentru dezvoltatori și să creeze un mediu alternativ care să poată concura cu standardele impuse de Nvidia. Strategia urmărește atragerea unui număr mai mare de clienți către infrastructura proprie și stimularea adopției cipurilor Maia în proiecte comerciale și de cercetare.
Mișcări similare sunt vizibile și în tabăra altor jucători importanți. Google a atras interesul unor clienți majori ai Nvidia, inclusiv Meta Platforms, lucrând la reducerea diferențelor software dintre propriile cipuri AI și soluțiile Nvidia. Competiția se mută astfel tot mai mult din zona strict hardware către ecosistemele de dezvoltare și compatibilitatea aplicațiilor.
Cipul Maia 200 este fabricat de Taiwan Semiconductor Manufacturing Company folosind tehnologia de 3 nanometri, similar cu viitoarele procesoare emblematice „Vera Rubin” ale Nvidia. Deși utilizează memorie cu lățime de bandă mare, aceasta este dintr-o generație ușor mai veche și mai lentă decât cea anunțată de Nvidia pentru următoarele sale produse.
Un element distinctiv al designului Maia 200 este integrarea unei cantități semnificative de memorie SRAM, care poate oferi avantaje de viteză în aplicațiile de tip chatbot și în sistemele care trebuie să răspundă simultan unui număr mare de utilizatori. Această abordare este utilizată și de alți competitori emergenți ai Nvidia, precum Cerebras Systems și Groq, care mizează pe performanță ridicată în scenarii de inferență și procesare intensivă.
Microsoft își consolidează astfel, poziția în cursa globală pentru controlul infrastructurii AI, într-un moment în care cererea pentru putere de calcul crește accelerat, iar investițiile în centre de date și semiconductori ating niveluri record. Evoluțiile din acest segment pot influența nu doar competiția dintre marii furnizori de cloud, ci și echilibrul lanțurilor de aprovizionare din industria globală a semiconductorilor.