:format(webp):quality(80)/https://www.putereafinanciara.ro/wp-content/uploads/2025/10/Qualcomm-da-lovitura-pe-piata-AI.-Actiunile-explodeaza-cu-11-PF-1024x577.webp) 
Gigantul american Qualcomm a anunțat lansarea unor cipuri AI dedicate centrelor de date, intrând direct în competiție cu Nvidia și AMD. Noile acceleratoare, AI200 și AI250, vor apărea pe piață în 2026 și 2027. Mișcarea a dus la o creștere spectaculoasă de 11% a acțiunilor companiei.
Qualcomm, cunoscut până acum mai ales pentru cipurile sale din telefoane și echipamente de conectivitate wireless, își face intrarea pe piața cipurilor pentru centre de date dedicate inteligenței artificiale.
Compania a anunțat că va lansa două acceleratoare AI majore. AI200, care va ajunge pe piață în 2026, și AI250, programat pentru 2027. Ambele vor fi disponibile sub forma unor sisteme rack răcite cu lichid. Cele două modele vor putea să găzduiască mai multe cipuri într-un singur ansamblu.
Noua direcție strategică o plasează pe Qualcomm în competiție directă cu Nvidia și AMD, liderii actuali ai industriei. Până acum, Nvidia a dominat cu o cotă de peste 90% din piața GPU-urilor pentru AI, în timp ce AMD s-a poziționat ca o alternativă secundară.
Intrarea Qualcomm în această cursă nu este întâmplătoare. Estimările McKinsey arată că până în 2030 vor fi investite peste 6.700 miliarde de dolari în centre de date. Majoritatea acestor sume fiind direcționate către infrastructura bazată pe cipuri AI.
Nvidia a atins o capitalizare de piață de peste 4.500 miliarde de dolari, alimentată de cererea imensă pentru cipurile sale, utilizate inclusiv de OpenAI la antrenarea modelelor GPT care stau la baza ChatGPT.
În acest context, Qualcomm pariază pe nevoia urgentă de alternative. Companii precum OpenAI au anunțat deja că vor să cumpere cipuri de la AMD, iar marii giganți cloud își dezvoltă propriile acceleratoare.
Qualcomm a precizat că noile sale cipuri vor fi optimizate pentru inferență. Adică pentru rularea modelelor AI existente, și nu pentru antrenarea acestora.
Diferența este esențială. Antrenarea modelelor AI, cum face OpenAI cu GPT, necesită o putere de calcul uriașă și consumă cantități masive de energie. În schimb, inferența este ceea ce stă la baza aplicațiilor de zi cu zi, de la chatboturi la recunoaștere vocală și sisteme de recomandări.
Qualcomm promite că noile sale sisteme rack vor oferi un consum mai mic de energie și costuri de operare reduse pentru clienți. Un rack complet are nevoie de 160 kilowați. Asta înseamnă o valoare comparabilă cu cea a echipamentelor Nvidia, dar compania afirmă că raportul performanță-consum va fi mai avantajos.
Durga Malladi, directorul general Qualcomm pentru centre de date și edge computing, a explicat strategia companiei:
„Am vrut mai întâi să ne demonstrăm capabilitățile în alte domenii. După ce ne-am consolidat forța acolo, a fost relativ ușor să urcăm un nivel și să intrăm în zona centrelor de date.”
Qualcomm va vinde atât sisteme complete, cât și componente individuale, oferind clienților posibilitatea de a „mix and match”. Asta înseamnă că operatorii de centre de date vor putea cumpăra întregul sistem sau doar anumite părți și să le integreze în propriile infrastructuri.
Malladi a sugerat chiar că rivalii Nvidia și AMD ar putea deveni clienți pentru anumite componente ale Qualcomm.