Se nel prossimo futuro i motori di ricerca arrivassero a funzionare come Bard o ChatGPT, Google Search consumerebbe la stessa quantità di energia dell’Irlanda intera. Ma per qualcuno l’impatto negativo dell’AI sarebbe controbilanciato dalla maggiore efficienza che la stessa AI garantirebbe in molti settori.
In uno studio pubblicato su “Joule” il 10 ottobre scorso (The growing energy footprint of artificial intelligence), il ricercatore olandese Alex de Vries torna a lanciare l’allarme a proposito dell’enorme fabbisogno di energia associato alle attività computazionali. Dal 2014 De Vries gestisce la piattaforma informativa Digiconomist, ricca di studi e notizie sulle conseguenze negative – in una prospettiva economica – dell’ecosistema digitale. Uno dei servizi più noti di Digiconomist è il Bitcoin Energy Consumption Index, che fornisce una stima aggiornata di continuo del consumo energetico totale della rete Bitcoin.
In passato gli studi di de Vries si sono concentrati appunto sulle attività di mining e transazionali legate alle criptovalute. Oggi, però, il problema più grosso, soprattutto se visto in prospettiva, sembra essere costituito dallo sviluppo dell’intelligenza artificiale generativa. La quale richiede, come le reti di gestione delle criptovalute, immani risorse di calcolo. E, conseguentemente, di energia elettrica. Ricordiamo che, in base alle stime formulate dalla International Energy Agency, già oggi i data center sono responsabili dell’1-1,5% dei consumi totali di energia elettrica. La diffusione di tecnologie come GPT-4, Bert e LLaMa rischia di aggravare il quadro, rendendo il bilancio energetico dell’ecosistema digitale sempre meno sostenibile.
I primi studi nel 2019
I primi tentativi di stimare il costo energetico dei LLMs risalgono a qualche anno fa. Nel 2019, per esempio, Emma Strubell, Ananya Ganesh e Andrew McCallum hanno calcolato che per addestrare e sviluppare Bert, con i suoi 110 milioni di parametri, sia stata consumata una quantità di energia pari a quella di un volo transcontinentale di andata e ritorno per una persona (Energy and Policy Considerations for Deep Learning in NLP). Le cose vanno anche peggio per GPT-3, molto più grande e con 175 miliardi di parametri. Secondo David Patterson e altri, l’addestramento del primo LLM di successo di OpenAI ha comportato il consumo di 1.287 megawattora di elettricità e ha generato 552 tonnellate di anidride carbonica equivalente, più o meno quanto 123 veicoli passeggeri alimentati a benzina guidati per un anno (Carbon Emissions and Large Neural Network Training). Possiamo solo immaginare, a questo punto, l’impatto energetico di GPT-4, che si basa su 100 trilioni di parametri.
de Vries si spinge a formulare alcune ipotesi per il futuro, basandosi sulla possibile evoluzione del mercato dei sistemi di intelligenza artificiale generativa. Se, per esempio, NVIDIA dovesse effettivamente consegnare 1,5 milioni di server AI all’anno entro il 2027, tutte queste unità hardware consumerebbero almeno 85,4 terawattora di elettricità all’anno, una quantità superiore a quella utilizzata da molti piccoli paesi (del ruolo di NVIDIA nella partita dell’intelligenza artificiale generativa abbiamo parlato qui). Se poi nel prossimo futuro i motori di ricerca arrivassero a funzionare come Bard o ChatGPT, Google Search consumerebbe la stessa quantità di energia dell’Irlanda intera.
Un bilancio energetico non sostenibile?
Naturalmente non è facile mettere a punto un modello sistemico così esteso da considerare tutte le variabili in gioco. Secondo alcuni teorici, per dire, il maggiore consumo di energia elettrica attribuibile allo sviluppo dell’intelligenza artificiale sarebbe controbilanciato dai risparmi ottenibili grazie ai recuperi di efficienza resi possibili proprio dall’intelligenza artificiale. Lo stesso de Vries, infatti, suggerisce la necessità di svolgere ulteriori analisi e di ipotizzare diversi scenari possibili.