Smontiamo il mito del digitale immateriale. Ecco come l’utilizzo, la produzione e lo smaltimento dei sistemi di AI consumano energia e risorse del pianeta
La corsa alla transizione verde e digitale è già partita da tempo e percorre diverse strade e soluzioni tecnologiche. L’intelligenza artificiale è entrata nel nostro quotidiano – personale e professionale – in modo diffuso e pervasivo. Queste innovazioni rappresentano una sfida dal potenziale enorme, ma portano con sé anche nuovi e complessi scenari. Da una parte infatti, appaiono come la panacea per la decarbonizzazione. Dall’altra, anche se le tecnologie si spostano interamente sul piano digitale, non sembrano però avere un impatto meccanico sull’ambiente. Ma è davvero così?
Per rispondere a questa domanda basta chiedersi cosa permette il loro funzionamento e la loro stessa esistenza. Come ogni altra tecnologia, le applicazioni dell’AI non possono funzionare senza consumare risorse, e il loro uso su larga scala contribuisce a creare nuove e significative pressioni ambientali. Non è infatti la singola query ad impattare significativamente, ma il suo volume globale. Vi sono inoltre diversi costi energetici nascosti che hanno un impatto ambientale significativo e su più fronti.
L’impatto dell’AI non dipende da un solo fattore, ma da molti elementi collegati tra loro
Il tema è serio, perché la doppia transizione verde e digitale fa ampio affidamento su queste tecnologie. L’ulteriore sfida è dunque quella di trovare un equilibrio fra l’imperativo dell’innovazione tecnologica e la responsabilità ambientale. Una sfida che coinvolge istituzioni, investitori, leader industriali e politici a livello globale, e che purtroppo manca di trasparenza.
L’impatto ambientale dell’AI non dipende da un solo fattore, ma da molti elementi collegati tra loro: i modelli software (gli algoritmi), l’hardware che li esegue (i chip e i server), i data center che li ospitano (le infrastrutture fisiche) e tutto il loro ciclo di vita, dalla produzione allo smaltimento. Anzitutto l’impatto dell’AI può essere scomposto in quello più immediatamente visibile, ossia il consumo di energia elettrica dato dal suo utilizzo. Solo questo fattore può raggiungere valori molto alti e rappresenta la punta dell’iceberg dell’impatto reale. In secondo luogo vi sono il consumo d’acqua e la generazione di e-waste, i cosiddetti rifiuti elettronici. Ma entriamo nel dettaglio.
Dal training all’utilizzo
Un modello di AI ha un ciclo di vita energetico suddiviso in due fasi: il training e l’inference. Il training si riferisce a quel processo durante il quale una certa versione del modello deve elaborare enormi set di dati su una serie di GPU, processori specializzati, per settimane o addirittura mesi. Questo procedimento va ripetuto ogni volta che il modello viene migliorato.
L’inference, invece, è quella fase in cui l’AI viene utilizzata quotidianamente per gli scopi per cui è stata addestrata: generare risposte, creare immagini, insomma, eseguire compiti. Ogni singola operazione, o inferenza, consuma una certa frazione dell’energia totale spesa per l’addestramento, ma essendo eseguita possibilmente miliardi di volte al giorno su scala globale, l’impatto relativo è cumulativo e, quindi, potenzialmente enorme.
Quale delle due fasi è consuma più energia? Esiste un dibattito accademico sull’argomento. Alcune fonti ritengono che sia la fase di inference quella responsabile della quota maggiore, stimata tra l’80%-90% del consumo totale della vita del modello. Altre stime la collocano al più in un intervallo del 60%-70%. La differenza fra le percentuali è rappresentativa non di una contraddizione, ma di uno studio ancora in fase di decorso, dove le differenti architetture dei modelli e la mancanza di dati standardizzati e trasparenti prolunga la fase di assestamento delle ricerche in corso.
Come illuminare un quartiere per un mese
Incertezze a parte, i dati disponibili per la fase di addestramento sono impressionanti. Secondo il Digitalization & Decarbonization Report 2024 del Politecnico di Milano, l’addestramento del modello Llama 2 di Meta (con 70 miliardi di parametri) ha richiesto 688 megawattora (MWh) di energia, l’equivalente dell’illuminazione di un quartiere per circa un mese. Il modello PaLM di Google (540 miliardi di parametri) ha consumato 3.436 MWh, paragonabili a un mese di produzione di un grande impianto industriale. Per il modello GPT-3 di OpenAI (175 miliardi di parametri), le stime indicano un consumo di 1.287 MWh, che si traduce in circa 552 tonnellate di emissioni di CO₂.
O la vita di cinque automobili
Per dare un’idea della scala, l’energia usata per addestrare GPT-3 equivale a quella consumata durante l’intero ciclo di vita (dalla produzione alla rottamazione) di cinque automobili. Modelli più recenti come GPT-4 richiedono ancora più energia, con stime che si attestano intorno ai 1.750 MWh. Una singola richiesta (query) a un chatbot avanzato può consumare da 10 a 20 volte più energia di una tradizionale ricerca su Google. Dati più specifici indicano che una query a ChatGPT consuma circa 0,3 Watt all’ora, mentre una ricerca Google si ferma a 0,03-0,04 Wh. Sebbene 0,3 Wh possa sembrare una cifra irrisoria, la sua moltiplicazione per miliardi di utenti e query giornaliere porta a consumi aggregati enormi. Si stima che ogni 100 milioni di richieste a ChatGPT possano comportare un consumo superiore a 1 gigawattora (GWh), ovvero 1.000 MWh. Alla fine del 2023, il consumo giornaliero associato solo a ChatGPT superava i 500 MWh.
Le proiezioni future realizzate dall’AIE, Agenzia Internazionale dell’Energia, prevedono una crescita esponenziale della domanda energetica, dato l’immenso potenziale di utilizzo della tecnologia. Le stime relative ai soli server di Nvidia, leader di mercato per i chip utilizzati nelle AI, indicano il raggiungimento potenziale di consumo energetico tra gli 85 e i 134 TWh entro il 2027, un dispendio paragonabile a quello di intere nazioni.
Sete d’acqua
A prima vista, il collegamento tra AI e consumo idrico può risultare spiazzante e insensato. Eppure, l’acqua è una risorsa fondamentale per il funzionamento dei data center, il corpo fisico dell’intelligenza artificiale che ne permette il funzionamento nel mondo digitale.
Il consumo d’acqua può avvenire in modo diretto e indiretto.
Il consumo diretto si riferisce all’approvvigionamento di acqua direttamente da fonti in loco. Fiumi, laghi, addirittura falde acquifere. L’acqua prelevata viene convogliata e spruzzata per raffreddare l’aria e le superfici calde dei server. L’impatto derivante, oltre alla privazione netta di acqua per altre fonti, è dato dal vapore acqueo risultante dal processo, che viene perso nell’atmosfera. Si tratta dunque di una procedura aperta, che non ricicla l’acqua utilizzata e la disperde.

Il consumo indiretto è meccanicamente interconnesso a quello diretto, ma ne rappresenta l’impronta “nascosta” in quanto più difficilmente identificabile. I data center non hanno solo bisogno di essere raffreddati durante il funzionamento, ma anche di funzionare energeticamente. L’energia necessaria arriva ovviamente dalle centrali termoelettriche (che siano a carbone, a gas o nucleari) le quali, a loro volta, richiedono enormi quantità di acqua per i loro stessi cicli di raffreddamento. Questo consumo, anche se non avviene direttamente presso i data center, rappresenta una conseguenza della sua domanda energetica e, complessivamente, costituisce la porzione più importante dell’impronta idrica di queste strutture.
Il consumo idrico dei data center
Vi sono ancora pochi dati quantitativi a disposizione per una valutazione coerente della situazione complessiva. E quei pochi disponibili sono tutt’altro che incoraggianti. Uno studio dell’Università della California ha infatti stimato che l’addestramento del solo modello GPT-3 ha richiesto il consumo diretto di circa 700.000 litri di acqua dolce, una quantità sufficiente per produrre 370 automobili BMW.
L’impatto idrico riguarda anche l’uso quotidiano dell’AI: una singola conversazione con un chatbot tipo ChatGPT, composta da 20 a 50 domande e risposte, può consumare fino a mezzo litro d’acqua. I data center di Google, uno dei pochi che ha iniziato a pubblicare i propri dati a riguardo, pare abbiano consumato oltre 20 miliardi di litri d’acqua solo nel 2022.
La localizzazione geografica dei data center è inoltre un forte moltiplicatore di impatto, in quanto sia la fonte energetica locale (sia fossile oppure rinnovabile), che la disponibilità idrica generano diverse misure di disturbo nella zona in cui si trovano. In altre parole, un data center localizzato in una zona arida e povera d’acqua avrà un peso diverso rispetto ad uno in una zona più umida.
L’assenza di monitoraggi standardizzati e di trasparenza aziendale peggiora sostanzialmente la situazione, impedendo alla comunità di investitori, ricercatori e pubblico di analizzare i dati completi e valutare il reale consumo idrico. E, di conseguenza, studiare pratiche più sostenibili.
Costi esterni e costi fisici
L’impatto ambientale reale dell’Intelligenza Artificiale non si esaurisce nei consumi operativi dei data center, ma affonda le sue radici nell’intero ciclo di vita dell’hardware che la rende possibile. La crescente complessità dei modelli di AI, misurabile con moltissimi parametri, richiede l’utilizzo di software sempre più potenti e sofisticati. Materialmente, i software necessitano di hardware coerenti con la potenza richiesta, e ciò è possibile grazie ai processori composti di particolari materiali. Questi materiali dipendono a monte (upstream) dall’estrazione di materie prime oggi considerate critiche, la cui provvigione è a sua volta un argomento mastodontico e intrecciato con temi di natura politica e, naturalmente, con un impatto ambientale insostenibile.
In particolare, il cuore pulsante dell’AI ci sono i semiconduttori. Questi materiali devono il loro nome alla capacità di controllare il flusso di corrente elettrica che li attraversa, e possiedono una conducibilità intermedia fra quella di un metallo e di un isolante. Ciò li rende fondamentali per la creazione di chip, transistor e diodi. Materiali di questo tipo sono, per esempio, il silicio e il germanio. Il silicio, in particolare, per quanto sia uno dei materiali più diffusi nella crosta terrestre, non è presente in forma pura, ma è sempre legato ad altri elementi in composti. Necessita perciò di una fase di lavorazione in più per la raffinazione (come il processo Siemens) e la purificazione del componente stesso prima del suo utilizzo per la produzione dei chip. La fabbricazione di questi oggetti richiede enormi quantità di energia, acqua ultra-purificata (UPW) e altri prodotti chimici.

Dall’estrazione ai rifiuti, tutti i lati oscuri dell’AI
Un rapporto dell’OCSE ha evidenziato come la catena del valore della computazione per l’AI si basi su estrazione, fusione e raffinazione di minerali, con impatti ambientali che includono la contaminazione del suolo, la deforestazione, l’erosione, la perdita di biodiversità, lo smaltimento di rifiuti tossici e l’inquinamento delle acque.
Una volta ottenuto l’hardware funzionante ed operativo, esso va a comporre i data center. Il loro funzionamento li riscalda e necessitano di acqua per raffreddarsi, spesso in enormi volumi dal pesante impatto idrico, come già svelato nel paragrafo precedente. Il decorso dell’hardware non aiuta questo processo, poiché segnato da una rapida obsolescenza delle componenti, con la conseguenza diretta a valle (downstream) della necessità di nuovi materiali per la sostituzione e la generazione di rifiuti tecnologici a fine vita.
Questi rifiuti, o e-waste, non sono inerti. Si tratta di composti di materiali misti e sostanze tossiche come piombo e cromo. Se non smaltiti o riciclati correttamente, possono contaminare suolo e falde acquifere: una seria minaccia per l’ambiente e per la salute.
Come per gli altri dati, non ci sono ancora previsioni quantitative nette su questo fronte. Quelle poche disponibili non sono buone. Secondo uno studio uscito su Nature Computational Science, l’hardware specifico per l’AI generativa potrebbe produrre un accumulo totale di rifiuti elettronici compreso tra 1,2 e 5 milioni di tonnellate entro il 2030, fra soli 5 cinque anni. La previsione è tuttavia approssimativa del valore reale, che potrebbe essere superiore e, con la crescita esponenziale dell’utilizzo di questi software, potrebbe diventare presto fuori controllo.
La green AI. Sogno o realtà?
La consapevolezza dell’impronta ambientale dell’intelligenza artificiale è crescente nella comunità scientifica e industriale. La risposta a questa tendenza è lo sviluppo di un nuovo paradigma noto come Green AI. L’idea alla base è di re-indirizzare l’innovazione tecnologica verso l’efficienza energetica senza fermarla, agendo su più livelli.
L’ottimizzazione dell’efficienza dell’algoritmo è la prima possibile soluzione. Ciò è possibile attraverso diverse tecniche sofisticate che permettono di ridurre il carico computazionale senza sacrificare le prestazioni dei modelli AI. Un esempio: la distillazione della conoscenza. Questo processo di machine-learning permette l’addestramento delle AI a partire da un modello più grande (teacher) ad uno più piccolo (student), ottimizzando la procedura di apprendimento soprattutto in casi dove vi sono miliardi di parametri da inferire.
Processori ottimizzati
Parallelamente all’ottimizzazione del software, si lavora sull’hardware, attraverso lo sviluppo di AI-optimized chips, come le GPU di nuova generazione progettate da Nvidia. Questi processori sono progettati apposta per eseguire i calcoli tipici delle reti neurali, in modo più efficiente dal punto di vista energetico rispetto alle CPU generiche.
Altre soluzioni riguardano la gestione dei data center. Una strategia possibile è la Carbon-Aware Scheduling. Questo approccio si basa sull’organizzazione dei carichi di lavoro più importanti in range temporali in cui la rete elettrica presenta più disponibilità energetica da fonti rinnovabili (per esempio, durante il giorno se c’è maggior disponibilità di energia solare). Un approccio che deve essere accompagnato da accordi con i gestori dei data center per l’acquisto di energia pulita da parchi solari o eolici, oppure con la costruzione di impianti rinnovabili in loco per tagliare anche i costi e gli impatti del trasporto. Queste soluzioni, seppur differenti e con diversi risultati circa la decarbonizzazione, se applicate in sinergia possono rappresentare una scelta strategica importante.

Anche se l’AI sembra dunque più un problema che un’opportunità, dal punto di vista ambientale, non dobbiamo dimenticare il suo potenziale come strumento per la sostenibilità. Le applicazioni AI possono essere utilizzate su scala industriale per ottimizzare i processi, per controllare le reti elettriche e integrare meglio le fonti rinnovabili. Possono essere utilizzate anche per compiti più complessi, come la previsione della domanda energetica per ottimizzare la rete e ridurre gli sprechi, o il miglioramento dell’efficienza agricola attraverso un uso più parsimonioso dell’acqua.
E ancora, possono fornire sistemi di allerta precoce per disastri naturali grazie al monitoraggio del clima.
Le applicazioni sono innumerevoli, il potenziale di questa innovazione è dimostrabile, ma la posta in gioco è alta. La sfida ora consiste nel garantire che il contributo ambientale dell’IA superi di gran lunga la sua stessa impronta ecologica.


