Chatboții AI, precum ChatGPT sau Gemini, au devenit indispensabili pentru sute de milioane de utilizatori. Dar succesul lor are un preț ascuns: un consum uriaș de energie, comparabil cu cel al unor orașe întregi.
ChatGPT a ajuns în doar câțiva ani la aproape 200 de milioane de utilizatori activi. Zilnic, aceștia trimit peste 2,5 miliarde de cereri, iar pentru fiecare răspuns generat este nevoie de resurse uriașe de calcul. În spatele interfeței simple pe care o văd utilizatorii se ascunde o infrastructură energetică impresionantă.
Centrele de date dedicate AI au devenit adevărate „uzine digitale”. În 2023, aceste centre reprezentau deja 4,4% din consumul de electricitate al SUA și aproximativ 1,5% din consumul global de energie. Estimările arată că aceste cifre s-ar putea cel puțin dubla până în 2030, pe măsură ce cererea pentru servicii AI crește, notează LIVE SCIENCE.
Alex de Vries-Gao, cercetător la Vrije Universiteit Amsterdam, avertizează că doar în câțiva ani AI a ajuns să consume aproape jumătate din energia tuturor centrelor de date la nivel mondial.
„Acum trei ani nici nu aveam ChatGPT. Astăzi vorbim despre un fenomen care schimbă total balanța energetică globală”, explică acesta.
Specialiștii subliniază că există două etape mari în funcționarea chatboților AI care solicită masiv energia: antrenarea și inferința.
Antrenarea presupune „hrănirea” modelelor lingvistice mari (LLM) cu seturi uriașe de date. Aceste modele sunt atât de complexe încât nu mai încap pe un singur server sau GPU. Pentru a da un exemplu, un singur server Nvidia DGX A100 are nevoie de până la 6,5 kilowați de putere. Modelele moderne sunt antrenate cu sute de servere, fiecare cu câte 8 GPU-uri, timp de săptămâni sau luni. Doar antrenarea GPT-4 a consumat aproximativ 50 gigawați-oră, suficient pentru a alimenta San Francisco timp de trei zile.
Inferința este procesul prin care modelul răspunde la întrebările utilizatorilor după ce a fost antrenat. Deși consumă mai puține resurse pe cerere, volumul uriaș de interacțiuni face ca impactul energetic să fie colosal. În fiecare zi, milioane de servere sunt puse la lucru pentru a genera răspunsurile instantanee pe care utilizatorii le primesc.
„Nu mai este vorba doar de dimensiunea modelelor. Avem o masă uriașă de oameni care le folosesc zilnic, iar asta nu poate fi eficientizat ușor”, explică Mosharaf Chowdhury, informatician la Universitatea din Michigan.
Nu doar OpenAI contribuie la acest consum masiv. Google își promovează noul chatbot Gemini ca viitoare opțiune implicită pentru căutările online, ceea ce va crește și mai mult volumul de date procesate. În același timp, Microsoft și Meta rulează propriile modele, iar numărul aplicațiilor bazate pe AI generativ crește accelerat.
Pe măsură ce utilizarea se extinde, devine aproape imposibil ca sistemele să facă economii semnificative de energie.
„Modelul e deja gigantic, dar problema reală este că îl folosesc milioane de oameni, simultan”, afirmă Chowdhury.
Cifrele sunt cu atât mai îngrijorătoare cu cât companiile mari nu publică statistici detaliate despre consumul energetic.
„Google, Microsoft și Meta țin aceste informații private sau oferă date incomplete. Nu știm exact cât consumă și nici dacă lumea poate ține pasul cu cererea tot mai mare”, subliniază De Vries-Gao.
Unul dintre marile obstacole este lipsa de transparență. Utilizatorii și chiar cercetătorii nu au acces la date clare privind consumul exact al acestor sisteme. Această opacitate îngreunează elaborarea de politici și măsuri pentru reducerea impactului asupra mediului.
De Vries-Gao atrage atenția că „problema fundamentală a aplicațiilor digitale este că impactul lor nu este niciodată transparent”. Cercetătorii solicită guvernelor și instituțiilor să oblige companiile să raporteze clar consumul energetic și emisiile de carbon generate.
Astfel, utilizatorii ar putea lua decizii mai responsabile, iar autoritățile ar putea implementa reglementări pentru a limita efectele asupra mediului.