L’intelligenza artificiale è ormai ovunque e sta risucchiando molta acqua

//

Alexandre Rossi

Dal nostro partner collaboratore “Living on Earth”, rivista di notizie ambientali della radio pubblicaun’intervista di Aynsley O’Neill a Shaolei Ren, professore associato di ingegneria elettrica e informatica presso l’Università della California, Riverside.

L’intelligenza artificiale è diventata parte della vita di tutti i giorni, ma finora c’è poca regolamentazione sulla sua diffusione e utilizzo. Attualmente, negli Stati Uniti non esiste alcuna legge che imponga alle società di intelligenza artificiale di rivelare il proprio impatto ambientale in termini di utilizzo di energia e acqua. I ricercatori interessati si affidano a dati volontari di aziende come Apple, Meta e Microsoft.

Ma la ricerca sta dimostrando che la generazione dell’intelligenza artificiale potrebbe richiedere un dispendio di risorse ancora maggiore di quanto si pensasse inizialmente. Immagina di voler chiedere a un programma di intelligenza artificiale di scrivere un’e-mail di 100 parole per te. Ottieni una risposta quasi istantanea, ma ciò che non vedi sono le intense risorse informatiche necessarie per creare quell’e-mail. Nel data center AI, generare solo due di queste e-mail potrebbe consumare la stessa energia di una ricarica completa dell’ultimo iPhone. E secondo uno studio del Pew Research Center, un’e-mail di 100 parole potrebbe consumare un’intera bottiglia d’acqua per il raffreddamento necessario nei data center.

Questa intervista con Shaolei Ren, professore associato di ingegneria elettrica e informatica presso l’Università della California, Riverside, è stata modificata per motivi di lunghezza e chiarezza.

AYNSLEY O’NEILL: Per quelli di noi che non hanno familiarità con gli aspetti tecnici del funzionamento dell’intelligenza artificiale, perché ci vuole così tanta più energia e molta più acqua di qualsiasi altra cosa che fai sul tuo computer?

SHAOLEI REN: Beh, perché un modello linguistico ampio è per definizione semplicemente davvero ampio. Ogni modello ha diversi miliardi di parametri, o addirittura centinaia di miliardi di parametri. Diciamo che hai 10 miliardi di parametri per generare un token o una parola: eseguirai 20 miliardi di calcoli. È un processo ad alta intensità energetica. Questa energia viene convertita in calore, quindi dobbiamo liberarci del calore; l’evaporazione dell’acqua è uno dei modi più efficienti per raffreddare le strutture del data center. Ecco perché oltre all’energia utilizziamo anche molta acqua.

L’acqua evapora nell’atmosfera, quindi a volte viene considerata acqua persa, anche se tecnicamente è ancora all’interno del nostro sistema globale del ciclo dell’acqua, ma non è disponibile per il riutilizzo a breve termine nella stessa fonte. Il consumo di acqua è la differenza tra il prelievo d’acqua meno lo scarico dell’acqua, ed è molto diverso dall’acqua che usiamo per fare la doccia. Quando si fa la doccia si preleva molta acqua, ma si consuma poco.

O’NEILL: Almeno da quello che ho capito negli Stati Uniti, l’acqua utilizzata in questi data center di intelligenza artificiale per effettuare questo raffreddamento proviene da fonti locali o municipali. Che impatto ha un data center AI sulla comunità locale che lo circonda?

REN: Negli Stati Uniti, circa l’80-90% del consumo di acqua per i data center proviene da fonti idriche (pubbliche). Abbiamo effettuato alcuni studi preliminari e risulta che attualmente negli Stati Uniti il ​​consumo di acqua dei data center rappresenta già circa il 2-3% della fornitura idrica pubblica. Quindi qui parliamo di consumi, non di prelievo di acqua. Secondo la stima dell’EPRI (Electric Power Research Institute), la domanda di energia basata sull’intelligenza artificiale entro il 2030 potrebbe salire fino all’8%.

O’NEILL: C’è un dibattito in corso a Memphis, dove il miliardario della tecnologia Elon Musk sta cercando di costruire un enorme server per ospitare l’intelligenza artificiale. L’azienda locale stima che questo sistema avrà bisogno di qualcosa come un milione di litri d’acqua al giorno per raffreddarlo. Dal tuo punto di vista, come dovrebbero valutare le comunità locali i vantaggi rispetto ai costi derivanti dalla presenza di questi data center IA locali?

Shaolei Ren, professore associato di ingegneria elettrica e informatica presso l'Università della California, Riverside
Shaolei Ren, professore associato di ingegneria elettrica e informatica presso l’Università della California, Riverside

REN: Penso che ci siano dei benefici, soprattutto in termini di sviluppo economico. Ad esempio, la costruzione del data center porterà alcune entrate fiscali e, una volta completata, ci sarà un flusso costante di dollari dei contribuenti per il governo locale.

Ma d’altro canto, le risorse naturali di milioni di litri d’acqua al giorno potrebbero rappresentare un problema. Proprio adesso, ho sentito che il servizio idrico locale afferma che assorbe l’1% della fornitura idrica totale. Ma direi che probabilmente stanno confrontando il consumo di acqua con il prelievo di acqua, perché forniscono l’acqua ai residenti, ad altre industrie, ma (quello) l’utilizzo è principalmente prelievo di acqua perché restituiscono immediatamente l’acqua alla fornitura. Tuttavia, quando un data center preleva l’acqua, la maggior parte dell’acqua evapora. Quindi non è davvero la metrica giusta da confrontare. Questo prelievo di acqua dell’1% da parte dei data center potrebbe significare che il consumo di acqua è compreso tra il 5% e il 10% circa.

O’NEIL: Ora, le stesse aziende che hanno creato e gestiscono questi sistemi di intelligenza artificiale hanno interesse a rendere la tecnologia più efficiente. Che tipo di possibili miglioramenti nella tecnologia dell’intelligenza artificiale potrebbero renderla più efficiente dal punto di vista energetico o idrico nel tempo?

REN: Hanno sicuramente l’incentivo a ridurre il consumo di energia, ridurre il consumo di risorse per la formazione e l’inferenza. Abbiamo visto molte proposte di ricerca e soluzioni che promettono di ridurre il consumo energetico, ma si scopre che in realtà i sistemi non sono così ottimizzati.

Ho visto un documento del team di ricerca di un’importante azienda tecnologica e mostra che il consumo di energia è 10 volte superiore a quello che pensavamo prima, anche se stanno utilizzando tecniche di ottimizzazione all’avanguardia. Quindi hanno l’incentivo a ridurre l’utilizzo di energia e risorse per l’informatica AI.

Tuttavia, il mondo reale è una storia diversa, in parte perché hanno obiettivi rigorosi in termini di livello di servizio da soddisfare, il che significa che devono restituire le risposte agli utenti in un breve lasso di tempo e ciò limita il modo in cui potrebbero ottimizzare il loro sistema. Se eseguissero solo l’elaborazione batch, potrebbero essere molto efficienti dal punto di vista energetico, ma si scopre che, in realtà, ci sono molti vincoli che impediscono loro di utilizzare tali tecniche di ottimizzazione.

Forse possiamo paragonare l’autobus con un’autovettura. In generale, per passeggero, l’autobus dovrebbe essere più efficiente dal punto di vista energetico rispetto a un’autovettura, presupponendo che l’autobus sia a pieno carico. Ma in realtà, a causa delle richieste degli utenti, di schemi casuali e di altri vincoli, l’autobus non è affatto carico. Se hai un autobus da 50 passeggeri, di solito viene caricato solo per cinque passeggeri e, in media, per passeggero, l’efficienza del carburante è molto peggiore rispetto a quella di un’autovettura.

O’NEILL: L’intelligenza artificiale è diventata una parte davvero importante della vita quotidiana di molte persone. Dovrebbe semplificarci la vita, ma ha un costo enorme per l’ambiente. Qual è la soluzione qui? Se i progressi tecnologici non funzionano come speriamo, qual è la soluzione?

REN: Una potenziale soluzione è che, invece di utilizzare modelli sempre più grandi, potremmo utilizzare modelli sempre più piccoli, perché di solito quei modelli più piccoli sono abbastanza buoni per completare molte delle attività che ci interessano davvero.

Ad esempio, se desideri solo conoscere il meteo o un riepilogo del testo, l’utilizzo di un modello più piccolo di solito è sufficiente e un modello più piccolo significa che risparmierai molte risorse e consumo di energia. A volte potresti anche eseguire il rendering di piccoli modelli sul tuo cellulare, e questo può ulteriormente risparmiare energia, diciamo, dell’80% molto facilmente, rispetto all’esecuzione di un modello più grande sul cloud.

A proposito di questa storia

Forse hai notato: questa storia, come tutte le notizie che pubblichiamo, può essere letta gratuitamente. Questo perché Inside Climate News è un’organizzazione no-profit 501c3. Non addebitiamo costi di abbonamento, non blocchiamo le nostre notizie dietro un paywall né intasiamo il nostro sito Web con annunci pubblicitari. Rendiamo le nostre notizie su clima e ambiente liberamente disponibili a te e a chiunque lo desideri.

Ma non è tutto. Condividiamo inoltre gratuitamente le nostre notizie con decine di altri media in tutto il paese. Molti di loro non possono permettersi di fare giornalismo ambientale in proprio. Abbiamo costruito uffici da una costa all’altra per riportare storie locali, collaborare con le redazioni locali e co-pubblicare articoli in modo che questo lavoro vitale sia condiviso il più ampiamente possibile.

Due di noi hanno lanciato ICN nel 2007. Sei anni dopo abbiamo vinto un Premio Pulitzer per il National Reporting e ora gestiamo la più antica e grande redazione dedicata al clima della nazione. Raccontiamo la storia in tutta la sua complessità. Riteniamo responsabili gli inquinatori. Denunciamo l’ingiustizia ambientale. Sfatiamo la disinformazione. Esaminiamo le soluzioni e ispiriamo l’azione.

Le donazioni di lettori come te finanziano ogni aspetto di ciò che facciamo. Se non lo hai già fatto, sosterrai il nostro lavoro in corso, i nostri resoconti sulla più grande crisi che affligge il nostro pianeta e ci aiuterai a raggiungere ancora più lettori in più luoghi?

Per favore, prenditi un momento per fare una donazione deducibile dalle tasse. Ognuno di loro fa la differenza.

Grazie,