Uno dei grandi problemi dell’intelligenza artificiale riguarda le immense quantità di energia necessarie per far funzionare i cosiddetti “data center”. Tra il 2018 ed il 2022, il consumo di elettricità è praticamente raddoppiato, arrivando a raggiungere i 460 terawattora; il consumo annuale della Francia è stato di 459 terawattora nel 2022.
Gli investimenti di Amazon, Alphabet, Microsoft e Meta (tra le principali aziende interessate all’IA) hanno permesso di sviluppare ed ampliare l’immensa rete di macchine che supportano l’intelligenza artificiale. Per “data center” si intende una struttura fisica atta a conservare una parte importante della strumentazione hardware: computer, router, switch e tutto quello che può aiutare l’IA ad imparare autonomamente. Tra i vantaggi di avere le macchine concentrate in un unico luogo c’è quello di verificarne il buon funzionamento, messo a rischio dalle alte temperature che normalmente si generano quando computer così potenti lavorano incessantemente per ore. Questo significa che gli stabilimenti hanno anche bisogno di un amplio sistema di raffreddamento.
Non solo elettricità, quindi: ma anche acqua. I dati riguardo il consumo di acqua presso i data center sono scarsi: solo il 16% dichiara, pubblicamente, i litri utilizzati per il raffreddamento dei server che però, tendenzialmente, si attestano nell’ordine delle decine di milioni. Questo rischia di stressare riserve idriche già messe in difficoltà dal riscaldamento globale: Arizona, Utah e California sono tra i paesi che soffrono la siccità, ma si trovano anche ad ospitare data center che vanno, in qualche modo, raffreddati.
Le condizioni delle risorse idriche preoccupano le Nazioni Unite, insieme alla prospettiva di arrivare ad utilizzare 1000 terawattora per l’alimentazione dei data center entro il 2026. Se è vero che l’IA può essere potenzialmente vista come un alleato nella lotta al cambiamento climatico, è anche vero che, per come la conosciamo adesso, è molto lontana dall’essere sostenibile.