L'impatto ambientale dell'IA: un caso di studio
![](https://www.wisdomtree.eu/-/media/eu-media-files/blog/refresh-images/technology/general-and-multi-thematic/thematics-11.jpg?h=564&iar=0&w=1151&sc_lang=it-it&hash=B319E093E2083B3DDD671D3B52FA68E8)
Nel nostro post precedente, "I carichi di lavoro dell'IA consumeranno tutta l'energia del mondo?", abbiamo analizzato la relazione tra la crescita della potenza di elaborazione e l'aumento della domanda di energia, oltre al relativo significato per l'intelligenza artificiale (IA) dal punto di vista ambientale. In questo nuovo post, ci proponiamo di accendere ulteriormente il dibattito con un caso di studio sul modello linguistico di grandi dimensioni (LLM) più ampio al mondo: BLOOM.
Caso di studio sull'impatto ambientale: BLOOM
Effettuare una stima accurata dell'impatto ambientale di un LLM è tutt'altro che semplice. È necessario innanzitutto capire che esiste un "ciclo di vita generale del modello". In linea di massima, possiamo descrivere il ciclo di vita di un modello come un processo in tre fasi1:
Inferenza: questa è la fase in cui un determinato modello viene definito "attivo e in funzione". Se si pensa al sistema di traduzione automatica di Google, ad esempio, l'inferenza si verifica quando il sistema fornisce traduzioni agli utenti. L'utilizzo di energia per ogni singola richiesta è ridotto, ma se il sistema nel suo complesso elaborasse 100 miliardi di parole al giorno, la quantità totale di energia utilizzata potrebbe essere piuttosto elevata.
Formazione: è la fase in cui vengono impostati i parametri di un modello e il sistema viene esposto a dati dai quali è in grado di apprendere per far sì che i risultati prodotti nella fase di inferenza possano essere ritenuti "accurati". In alcuni casi, l'impatto sulle emissioni di gas a effetto serra della formazione di modelli di grandi dimensioni all'avanguardia può essere paragonabile alle emissioni di un'automobile durante il suo intero ciclo di vita.
Sviluppo del modello: questa è la fase in cui gli sviluppatori e i ricercatori si impegnano a costruire il modello, testando solitamente ogni tipo di opzione. È più facile misurare l'impatto della formazione di un modello finito che diventa pubblico, piuttosto che cercare di misurare l'impatto del processo di ricerca e sviluppo, che potrebbe aver implementato molti percorsi diversi prima di arrivare al modello finito che il pubblico vede.
Pertanto, lo studio del caso BLOOM si concentra sull'impatto della formazione del modello.
- BLOOM è stato formato utilizzando 1,6 terabyte di dati in 46 lingue naturali e 13 linguaggi di programmazione.
- Al momento dello studio, Nvidia non aveva rivelato l'intensità di carbonio di questo specifico chip, quindi i ricercatori hanno dovuto compilare i dati a partire da una configurazione pressoché equivalente. Si tratta di un dettaglio importante da tenere a mente, in quanto una rappresentazione accurata dell'impatto sulle emissioni di carbonio derivante dalla formazione di un singolo modello richiede molte informazioni e, se alcuni dati di tale percorso non vengono divulgati, è necessario procedere con un numero sempre maggiore di stime e approssimazioni (che influenzeranno i dati finali).
Figura 1: Riepilogo dei dati statistici relativi alla formazione del modello BLOOM
Fonte: Luccioni et al. “Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model.” ARXIV.org. Inviato il 3 novembre 2022.
Se i carichi di lavoro dell'intelligenza artificiale sono in continua crescita, si può dire lo stesso anche per le emissioni di carbonio2?
Considerando tutti i centri dati, le reti di trasmissione dei dati e i dispositivi connessi, si stima che nel 2020 siano stati generati circa 700 milioni di tonnellate di anidride carbonica equivalente, pari più o meno all'1,4% delle emissioni globali. Circa due terzi delle emissioni provenivano dall'utilizzo di energia operativa. Anche se l'1,4% non rappresenta ancora un numero significativo rispetto al totale mondiale, la crescita in questo settore può avvenire rapidamente.
Al momento non è possibile sapere con esattezza quanti di questi 700 milioni di tonnellate provengano direttamente dall'IA e dall'apprendimento automatico. Una possibile ipotesi per arrivare a una cifra è che i carichi di lavoro dell'IA e dell'apprendimento automatico si svolgevano quasi interamente in centri dati hyperscale. Tali specifici centri dati contribuivano più o meno allo 0,1 - 0,2% delle emissioni di gas a effetto serra.
Alcune delle aziende più grandi al mondo rendono direttamente pubblici determinati dati statistici per dimostrare di essere attente all'ambiente. Meta Platforms rappresenta un caso emblematico. Se consideriamo le sue attività specifiche:
- il consumo energetico complessivo dei centri dati è aumentato del 40% all'anno a partire dal 2016.
- L'attività complessiva di formazione nell'ambito dell’apprendimento automatico è cresciuta di circa il 150% all'anno.
- L'attività complessiva di inferenza è cresciuta del 105% all'anno.
- Tuttavia, l'impronta complessiva delle emissioni di gas a effetto serra di Meta Platforms è diminuita del 90% rispetto al 2016 grazie all'acquisto di energia rinnovabile.
In conclusione, se le aziende si limitassero ad aumentare l'utilizzo dei computer per lo sviluppo, la formazione e l'esecuzione dei modelli, incrementando continuamente tali attività, sarebbe logico supporre che le loro emissioni di gas a effetto serra sarebbero in continua crescita. Tuttavia, le aziende più grandi al mondo vogliono essere considerate "attente all'ambiente" e spesso acquistano energia rinnovabile e persino crediti di carbonio. Questo rende il quadro complessivo meno chiaro: da un lato l'IA continua a crescere e, per certi aspetti, potrebbe avere una maggiore intensità dal punto di vista energetico, dall'altro, se una parte sempre maggiore dell'energia provenisse da fonti rinnovabili, l'impatto ambientale potrebbe non aumentare allo stesso ritmo.
Conclusioni: un'area fruttuosa per le analisi future
Una delle analisi future più interessanti metterà a confronto l'impatto delle ricerche su Internet che sfruttano l'IA generativa e quello dell'attuale processo standard. Secondo alcune stime, l'impronta di carbonio della ricerca effettuata sfruttando l'IA generativa potrebbe essere quattro o cinque volte superiore, ma considerare solo questo dato potrebbe essere fuorviante. Ad esempio, se la ricerca assistita dall'IA generativa fa effettivamente risparmiare tempo o riduce il numero complessivo di ricerche, a lungo termine la maggiore efficienza della stessa potrebbe offrire più vantaggi che svantaggi3.
Così come stiamo imparando a capire in che modo e in quali ambiti l'IA generativa aiuterà le aziende, stiamo scoprendo sempre di più sul relativo impatto ambientale.
Fonti
1 Fonte: Kaack et al. “Aligning artificial intelligence with climate change mitigation.” Nature Climate Change. Volume 12, giugno 2022.
2 Fonte: Kaack et al., giugno 2022.
3 Fonte: Saenko, Kate. “Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins.” The Conversation. 23 maggio 2023.
Blog correlati
+ 4 insegnamenti dalla conferenza EmTech Digital sull'IA
+ La fine del massacro delle Saas e l’ascesa dell’IA generativa
+ Cogli la rivoluzione dell'IA con WisdomTree