ChatGpt, troppa acqua per raffreddare data center e realizzare i training

Due studi delle università del Colorado e del Texas

ChatGpt, troppa acqua per raffreddare data center e realizzare i training
Che i popolari software di Intelligenza artificiale come ChatGpt di OpenAi e Bard di Google consumassero molta energia richiedendo grandi data center, lo si poteva...

OFFERTA SPECIALE

2 ANNI
99,98€
40€
Per 2 anni
ATTIVA SUBITO
OFFERTA MIGLIORE
ANNUALE
49,99€
19€
Per 1 anno
ATTIVA SUBITO
 
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
ATTIVA SUBITO

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
ATTIVA SUBITO
 
ANNUALE
49,99€
11,99€
Per 1 anno
ATTIVA SUBITO
2 ANNI
99,98€
29€
Per 2 anni
ATTIVA SUBITO
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 3 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno

Che i popolari software di Intelligenza artificiale come ChatGpt di OpenAi e Bard di Google consumassero molta energia richiedendo grandi data center, lo si poteva immaginare.

Che però oltre all’energia ci fosse anche un enorme dispendio di acqua per il raffreddamento lo ha certificato l’Università del Colorado Riverside e l’Università del Texas di Arlington. In uno studio dei due Atenei si è calcolato ad esempio che l’addestramento di ChatGpt-3 ha consumato 700.000 litri di acqua dolce per il raffreddamento del data center. Un quantitativo sufficiente a realizzare 370 auto Bmw o 320 Tesla. Mentre lo scambio di conversazioni di un utente medio con ChatGpt equivale al consumo di una bottiglia di acqua.

L’IMPRONTA

I ricercatori temono che, visto il costante aumento dell’uso di questi strumenti da parte della popolazione mondiale, tutto questo consumo d’acqua possa avere un impatto preoccupante sulle forniture idriche, in rapporto alla crescente siccità e ai problemi ambientali. I ricercatori si aspettano, inoltre, che questi consumi idrici aumenteranno ulteriormente con i modelli più recenti, come Gpt-4, che si basano su un insieme e una elaborazione più ampia di dati rispetto ai software predecessori. I problemi relativi al consumo di acqua non si limitano ai modelli di OpenAI. Gli studiosi hanno fatto dei calcoli anche sui consumi d’acqua di Google. I suoi data center negli Stati Uniti hanno bevuto complessivamente 12,7 miliardi di litri di acqua dolce nel 2021, di cui circa il 90% potabile. «L’impronta idrica dei modelli di intelligenza artificiale non può più rimanere sotto i radar - spiegano gli autori dello studio - deve essere affrontata come una priorità e come parte degli sforzi collettivi per combattere le sfide idriche globali».

© RIPRODUZIONE RISERVATA

Leggi l'articolo completo su
Il Gazzettino