Il reale impatto ambientale dell’intelligenza artificiale è ancora poco conosciuto ai più. Una grave lacuna, considerato che questa tecnologia, per quanto rivoluzionaria, comporta un notevole ‘costo ecologico’ che si articola in molteplici ambiti. Cerchiamo dunque di fornire qualche informazione utile in merito, così da orientarci con maggiore consapevolezza nel suo utilizzo.

I cosiddetti ‘datacenter’ sono, di fatto, il cuore pulsante dell’Intelligenza Artificiale: un’immagine affascinante, quasi poetica, che si scontra però con il problema rappresentato dal loro spropositato fabbisogno energetico. Del resto, anche solo guardandoli, ciò appare evidente: si tratta infatti di enormi strutture, che spesso si estendono su superfici pari a molteplici campi di calcio (*1), al cui interno migliaia di server (*2), ordinatamente disposti in file interminabili, eseguono incessantemente miliardi di calcoli, ventiquattro ore su ventiquattro. Un apparato del genere necessita, ovviamente, di enormi quantità di energia elettrica per il suo funzionamento, senza dimenticare quella necessaria a ‘tenere a bada’ il calore generato da così tante macchine.
Secondo dati aggiornati dell’International Energy Agency, si stima che, a livello globale, i datacenter consumino circa il 2% dell’elettricità mondiale. Percentuale destinata peraltro a crescere vertiginosamente nei prossimi anni: molte proiezioni indicano un raddoppio di tale esigenza entro il 2030.
*1: I datacenter più estesi superano abbondantemente il mezzo milione di metri quadri in estensione;
*2: Un server è un computer (o un programma) che fornisce dati o servizi ad altri computer, chiamati client, attraverso una rete come Internet;

Per quanto ai non ‘addetti ai lavori’ il raffreddamento delle macchine necessarie al funzionamento dell’Intelligenza Artificiale possa sembrare, a prima vista, un dettaglio del tutto trascurabile, esso rappresenta invece una delle voci di spesa energetica più significative in questo ambito. Tenere a bada i ‘bollenti spiriti’ dei computer che ‘muovono’ la nuova tecnologia richiede infatti l’uso di sistemi di refrigerazione enormi: dagli apparati di ventilazione, fino ai dissipatori a liquido.
Per dare un’idea abbastanza precisa degli effettivi valori in gioco basti pensare che, attualmente, un datacenter hyperscale da 100 megawatt necessita di circa 2 milioni di litri d’acqua al giorno per il suo corretto funzionamento.
Ben inteso, la localizzazione geografica di questi impianti può influenzarne profondamente l’impatto ambientale: ad esempio, uno in Islanda, alimentato grazie all’energia geotermica, avrà una ‘impronta ecologica’ decisamente inferiore rispetto a uno dipendente dal carbone di una regione meno ‘virtuosa’.

Ragionare di impatto ambientale dell’Intelligenza Artificiale in termini globali rischia di far perdere di vista il costo ecologico di ogni singola interazione che ciascuno di noi ha, ogni giorno, con essa. Un costo tutt’altro che trascurabile anche quando effettuiamo operazioni apparentemente banali, come chiedere a un chatbot di correggere un testo o suggerire una ricetta.
Per rendere l’idea in modo concreto: ogni richiesta (‘query’) a un modello linguistico come, ad esempio, ChatGPT, impiega circa dieci volte l’energia necessaria a una comune ricerca su Google. È evidente, dunque, che le centinaia di milioni di interazioni di questo tipo che avvengono quotidianamente a livello globale restituiscono l’immagine di una tecnologia tutt’altro che ‘green’.
Si stima che il solo LLM appena citato consumi ogni giorno una quantità di elettricità paragonabile a quella necessaria per alimentare circa 33.000 abitazioni europee. Tutto ciò considerando esclusivamente le richieste testuali, escludendo quindi la generazione di immagini e video, che è enormemente più energivora.
Il punto non è dunque fare a meno dell’IA, ma usarla con la stessa consapevolezza es attenzione con cui, ormai, molti di noi gestiscono altri consumi quotidiani.

Considerata la sua fondamentale importanza, non deve stupire che la sostenibilità ambientale dell’Intelligenza Artificiale sia sempre più tutelata a norma di legge. L’Unione Europea, spesso precorritrice in materia di tutele normative, ha già incluso nel suo AI Act criteri di valutazione per i sistemi ad alto rischio e standard relativi all’efficienza energetica e alla trasparenza dei consumi per i modelli ad alto impatto. Anche altre giurisdizioni, tra cui quelle di Stati Uniti, Regno Unito e di alcuni stati asiatici, stanno introducendo, sebbene più lentamente, requisiti specifici di efficienza energetica per i datacenter attraverso normative dedicate.
Da ultimo, alcuni sostenitori della ‘fiscalità ambientale’ stanno iniziando a proporre l’introduzione di imposte specifiche sulle emissioni di CO₂ generate dalla produzione di elettricità utilizzata nei datacenter: vere e proprie ‘tasse sul carbonio’ che colpirebbero in modo mirato le fonti fossili impiegate nel settore, ma che restano, al momento, ancora allo stadio di proposta teorica.

L’enorme consumo dei Data Center non è l’unica causa dell’alto impatto ambientale legato all’Intelligenza Artificiale: occorre infatti ricordare il notevole dispendio energetico causato dalla produzione dei chip indispensabili per il funzionamento della nuova tecnologia. Secondo un rapporto del 2025, redatto da Greenpeace, il fabbisogno di elettricità in questo ambito ha registrato un aumento del 351% tra il 2023 e il 2024, portando ad un incremento delle emissioni di gas serra pari al 357%. Ciò è dovuto al fatto che la maggior parte delle factory è concentrata in Asia orientale, soprattutto a Taiwan, in Corea del Sud e in Giappone, dove le reti sono in gran parte alimentate da combustibili fossili. Il futuro che si prospetta non è molto incoraggiante: si stima che entro il 2030 l’assorbimento energetico aumenterà fino a 170 volte rispetto ai livelli del 2023.

Sebbene possa a prima vista sembrare una attività innocua, anche il solo “addestrare” un modello di AI avanzato può richiedere settimane, se non mesi, di calcoli ininterrotti da parte di migliaia di processori che lavorano simultaneamente (in ‘parallelo’). Un’attività del genere, come è facile comprendere, richiede un enorme quantitativo di elettricità, per non parlare di quella necessaria a raffreddare il calore generato dal funzionamento delle macchine. Tra i numerosi aspetti critici spesso ignorati, occorre inoltre evidenziare che le aziende tecnologiche, generalmente, necessitano di centinaia di tentativi prima di ottenere un risultato soddisfacente. Un caso emblematico riguarda la “formazione” del modello GPT-3 che ha consumato circa 1.287 MWh di elettricità, generando 552 tonnellate di emissioni di CO₂ (*1).
*1: Paper del 2021 di Patterson et al., Google/UC Berkeley;

L’aumento esponenziale dell’uso dell’Intelligenza artificiale, e soprattutto il moltiplicarsi dei macchinari necessari al suo funzionamento, comporta un tipo di “costo ambientale” spesso sottovalutato, vale a dire la massiccia produzione di rifiuti elettronici. Secondo uno studio pubblicato su Nature Computational Science, la nuova tecnologia potrebbe arrivare a generarne tra 1,2 e 5 milioni di tonnellate nel periodo compreso tra il 2020 e il 2030. Tutto ciò, a ben vedere, non dovrebbe stupire più di tanto: gran parte dell’hardware utilizzato nei data center è soggetto infatti a un processo incredibilmente rapido di obsolescenza che lo rende ‘sorpassato’ in un periodo sorprendentemente breve
(generalmente tra i due e i cinque anni), richiedendo quindi continue sostituzioni.
Il riciclaggio di questo ‘ciarpame hi-tech’ è un’arma a doppio taglio: se è vero infatti che i circuiti contengono metalli preziosi quali rame, oro e argento, è altrettanto vero che sono presenti notevoli quantitativi di materiali tossici come piombo, mercurio e cromo, notoriamente difficili (e costosi) da smaltire. Ciò spiega come mai l’attuale tasso di trattamento degli ‘e-waste’ sia deludente: solo il 22% dei rifiuti elettronici completa il ciclo di recupero, mentre la destinazione del restante quantitativo rimane in gran parte sconosciuta, con una quota stimata che finisce in discariche (non si sa fino a che punto legali) nei paesi in via di sviluppo.

Tra le numerose strategie che si programma di adottare per combattere l’impatto ambientale dell’Intelligenza Artificiale, una delle più promettenti è senza dubbio il cosiddetto ‘Edge Computing’.
Di cosa si tratta? È presto detto: significa spostare progressivamente l’enorme mole di calcoli necessari al funzionamento della nuova tecnologia dagli attuali datacenter centralizzati ai dispositivi ‘periferici’ che le persone usano quotidianamente. Ad esempio, eseguendo gli algoritmi dell’IA sui milioni di smartphone attualmente in circolazione si può effettivamente ottimizzare il consumo energetico (con stime che indicano una riduzione tra il 14 e il 25% rispetto alle architetture centralizzate), alleggerendo non di poco il carico sulle strutture centralizzate.

Quasi stupisce scoprire che l’Intelligenza Artificiale, attualmente causa di molte preoccupazioni da un punto di vista di impatto ambientale, potrebbe a breve diventare un’efficace soluzione al problema. Basti pensare al lavoro di Orbital Materials, azienda specializzata nello sviluppo di materiali innovativi che, soprattutto grazie all’IA, ne ha inventato uno in grado di catturare le emissioni di carbonio, così come una spugna assorbe l’acqua. Grazie alla collaborazione con Civo, cloud provider britannico focalizzato su infrastrutture sostenibili, Orbital sta pianificando l’integrazione di questa tecnologia in un datacenter del Regno Unito, nell’ambito di un progetto pilota che, se i risultati si riveleranno all’altezza delle aspettative, potrebbe trasformare queste infrastrutture da concause del cambiamento climatico a efficaci strumenti per contrastarlo.

Tra le più rivoluzionarie innovazioni che potrebbe riservarci il (prossimo) futuro, sono senza dubbio particolarmente suggestivi i data center ‘spaziali’. Posizionate nella Low Earth Orbit (LEO), ovvero l’orbita terrestre bassa, queste strutture ipertecnologiche verranno alimentate dall’energia solare e raffreddate, efficacemente e a costo zero, dal gelido vuoto dello spazio, eliminando così la necessità di sistemi di dissipazione tradizionali. Secondo uno studio della Nanyang Technological University, pubblicato sulla rivista scientifica peer-reviewed Nature Electronics, un’architettura del genere potrebbe consentire un risparmio nelle emissioni di carbonio fino a 10 volte superiore rispetto alle soluzioni attualmente utilizzate.
Sebbene il progetto sia rallentato da ostacoli significativi, come la vulnerabilità alle radiazioni cosmiche, che richiederebbe l’impiego di processori specializzati, le proiezioni indicano che un primo test operativo potrebbe avvenire entro il 2027: Google starebbe infatti già pianificando il lancio di due satelliti prototipo in partnership con Planet, per testare sul campo questa promettente tecnologia.

È interessante scoprire che l’Intelligenza Artificiale, il cui funzionamento è causa di crescenti problemi di impatto ambientale, potrebbe, al contempo, aiutare a risolverli, o quantomeno attenuarne gli effetti. Si sta infatti assistendo allo sviluppo di un gran numero di applicazioni basate su questa tecnologia e destinate specificamente a ottimizzare i consumi energetici. Qualche esempio: reti elettriche ‘smart’, in grado di gestire al meglio la distribuzione, algoritmi che minimizzano i consumi dei processi produttivi industriali, software che migliorano le prestazioni dei trasporti pubblici.
Secondo la International Energy Agency (IEA), l’adozione diffusa di applicazioni IA potrebbe ridurre le emissioni di CO₂ di 1,4 gigatonnellate entro il 2035, circa cinque volte quelle prodotte dai data center nello stesso anno, un risultato che darebbe alla nuova tecnologia un ruolo di primo piano nella lotta al cambiamento climatico.

Le immagini presenti in questa pagina web sono state realizzate impiegando strumenti di Intelligenza Artificiale generativa.