Crescita esplosiva dei centri di calcolo AI e la sfida energetica
La crescita esplosiva dei centri di calcolo alimentati dall’intelligenza artificiale sta generando un aumento senza precedenti della domanda di elettricità, minacciando di sovraccaricare le reti elettriche e ostacolare gli obiettivi climatici. Allo stesso tempo, le tecnologie di intelligenza artificiale potrebbero rivoluzionare i sistemi energetici, accelerando la transizione verso l’energia pulita.
Domanda energetica sorprendente dell’AI
Fin dall’inizio, il simposio ha messo in evidenza statistiche allarmanti sull’appetito dell’AI per l’elettricità. Dopo decenni di domanda elettrica stabile negli Stati Uniti, i centri di calcolo ora consumano circa il 4% dell’elettricità nazionale. Sebbene ci sia grande incertezza, alcune proiezioni suggeriscono che questa domanda potrebbe salire al 12-15% entro il 2030, principalmente a causa delle applicazioni di intelligenza artificiale.
Vijay Gadepally, scienziato senior presso il Lincoln Laboratory del MIT, ha sottolineato la scala del consumo dell’AI. “L’energia necessaria per sostenere alcuni di questi grandi modelli raddoppia quasi ogni tre mesi”, ha osservato. “Una singola conversazione con ChatGPT utilizza tanta elettricità quanto caricare il tuo telefono, e generare un’immagine consuma circa una bottiglia d’acqua per il raffreddamento.”
Opportunità di AI per la transizione energetica
Nonostante le sfide, l’AI offre anche opportunità per contribuire alle soluzioni contro il cambiamento climatico. Evelyn Wang, vicepresidente del MIT per l’energia e il clima, ha sottolineato che le innovazioni sviluppate per l’AI e i data center — come l’efficienza, le tecnologie di raffreddamento e le soluzioni di energia pulita — potrebbero avere applicazioni ampie oltre le strutture di calcolo stesse.
Strategie per soluzioni energetiche pulite
Il simposio ha esplorato molteplici percorsi per affrontare la sfida energetica dell’AI. William H. Green, direttore del MIT Energy Initiative (MITEI), ha descritto la situazione come un “momento di potenziale cambiamento gigantesco in tutta l’economia”. L’evento ha riunito esperti di industria, accademia e governo per esplorare soluzioni a quelli che Green ha descritto come “problemi locali con l’approvvigionamento elettrico e il raggiungimento dei nostri obiettivi di energia pulita” cercando di “trarre i benefici dell’AI senza alcuni dei danni”.
Le strutture che richiedono da 50 a 100 megawatt di potenza stanno emergendo rapidamente negli Stati Uniti e a livello globale, spinte sia dalle esigenze di ricerca casuali che istituzionali che si basano su grandi programmi linguistici come ChatGPT e Gemini. Gadepally ha citato la testimonianza al Congresso di Sam Altman, CEO di OpenAI, sottolineando quanto questo rapporto sia diventato fondamentale: “Il costo dell’intelligenza, il costo dell’AI, convergerà al costo dell’energia”.
Fonte: MIT
foto credit: Photo: Jake Belcher
Ricevi le ultime attualità sul mondo tech!