Pe măsură ce inteligența artificială devine o prezență obișnuită în viața noastră de zi cu zi de la chatboți care ne organizează programul, până la aplicații care ne răspund la orice curiozitate – o întrebare începe să prindă contur nu doar printre specialiști, ci și în rândul publicului larg: ce impact are această tehnologie asupra consumului global de energie și, implicit, asupra mediului?
Deși conversațiile cu AI-ul par imateriale, răspunsurile rapide și elaborate au la bază o infrastructură imensă, greu de intuit. Fiecare întrebare adresată unui chatbot antrenează în fundal servere performante, găzduite în centre de date răspândite în toată lumea, care rulează modele lingvistice complexe cu milioane sau chiar miliarde de parametri.
Surprinzător sau nu, energia consumată pentru generarea unui singur răspuns poate fi comparată cu utilizarea, pentru câteva clipe, a unor aparate casnice cu consum ridicat. Estimările avansate public de liderii industriei – precum afirmația recentă a CEO-ului OpenAI, care echivalează o întrebare adresată ChatGPT cu o secundă de funcționare a unui cuptor – trebuie însă privite cu rezerve. Specialiștii consultanți atrag atenția că lipsesc nuanțele: nu există, de fapt, o „interogare medie”, iar consumul variază în funcție de mai mulți factori greu de cuantificat extern.
În timp ce giganții tech păstrează confidențiale datele privind consumul și emisiile reale, cercetătorii din domeniu încearcă să reconstruiască tabloul folosind modele deschise și estimări indirecte. Rezultatele preliminare arată discrepanțe mari între diverse modele, unele fiind de zeci de ori mai poluante decât altele pentru aceeași sarcină. Iar aceste diferențe se accentuează atunci când luăm în calcul nu doar consumul din timpul răspunsurilor, ci și energia investită în antrenarea modelelor, producția componentelor hardware și întreținerea infrastructurii.
Totodată, experții avertizează că, odată cu extinderea utilizării AI-ului la nivel global, impactul energetic ar putea crește exponențial, depășind praguri care pun presiune pe sistemele energetice naționale.
Un model lingvistic performant, precum cele folosite de platformele populare, are nevoie de o capacitate de calcul impresionantă pentru a răspunde rapid și relevant la orice solicitare. Această putere este asigurată de mii de plăci grafice de ultimă generație, grupate în centre de date care necesită, la rândul lor, sisteme complexe de răcire și mentenanță.
Dimensiunea modelului, volumul de date procesate și rapiditatea cu care este livrat răspunsul determină, împreună, consumul de energie. Iar odată cu trecerea la tehnologii tot mai performante, această „foame de energie” se amplifică, estimările oficiale arătând că centrele de date ar putea ajunge să consume peste 10% din energia totală a SUA în următorii ani.
Dacă perioada de antrenare a unui model rămâne complet opacă pentru public lipsind date despre sursa de energie sau durata procesului nici calculul emisiilor generate de fiecare răspuns nu e simplu. Factori precum locația serverului, sursa de energie folosită în momentul respectiv și complexitatea întrebării pot schimba radical bilanțul de la o interacțiune la alta.
Chiar și atunci când există date, acestea se referă doar la consumul plăcilor grafice, fără a include restul infrastructurii sau amprenta de carbon a procesului de fabricație.
În absența unor reglementări stricte și a transparenței din partea marilor companii, utilizatorii pot lua anumite măsuri pentru a reduce, chiar și marginal, consumul total de energie. Printre recomandările formulate de cercetători: alegerea unor modele mai mici pentru sarcini simple, formularea scurtă și precisă a întrebărilor, evitarea suprasolicitării AI-ului în perioadele cu consum ridicat de electricitate (ziua sau vara), precum și folosirea instrumentelor publice de evaluare a eficienței energetice a modelelor disponibile.
În același timp, experții pledează pentru introducerea unui sistem de clasificare a modelelor AI în funcție de eficiența energetică, similar cu etichetele de pe electrocasnice, astfel încât presiunea să fie transferată către companiile producătoare.
Referință: M. Dauner and G. Socher. Energy costs of communicating with AI. Frontiers in Communication. Accesibil la doi: 10.3389/fcomm.2025.1572947.