Il rapporto tra intelligenza artificiale ed energia rappresenta uno snodo centrale della contemporaneità, dove la dimensione tecnologica incontra le trasformazioni ambientali e culturali. L’IA è oggi uno dei principali fattori di consumo energetico globale: la raccolta e l’elaborazione massiva di dati richiedono infrastrutture ad alta intensità elettrica, rendendo urgente una riflessione sulla sostenibilità delle sue basi materiali. Ma l’energia è anche una metafora, che rimanda alla tensione tra calcolo e creatività, tra potenza di elaborazione e capacità di interpretazione.
La prima variabile riguarda l’energia. La rivoluzione dell’IA richiede una potenza continua e programmabile. Alcune previsioni stimano un incremento della domanda elettrica fino al 165% entro la fine del decennio rispetto ai livelli del 2023, con un impatto potenzialmente dirompente per reti, pianificazione e investimenti. In sistemi flessibili questa crescita può essere assorbita più rapidamente. In contesti più centralizzati, invece, servono politiche forti di coordinamento e accelerazione autorizzativa, altrimenti i colli di bottiglia ritardano sia le infrastrutture sia l’innovazione industriale.
Reti elettriche più robuste, integrate e digitalizzate diventano quindi un prerequisito per gestire la transizione digitale. Devono distribuire capacità aggiuntiva, bilanciare fonti variabili, accogliere nuove tecnologie, iniziando dagli sviluppi in campo nucleare. Gli Small Modular Reactors (SMR) sono spesso indicati come una possibile chiave per sostenere carichi di IA in crescita continua, anche se i primi progetti commerciali in Occidente non arriveranno prima del 2029 in Canada, con stime più realistiche che parlano del 2035.
In questo scenario una domanda cruciale è se l’IA possa funzionare con meno energia. L’evoluzione dei modelli ha prodotto un miglioramento dell’efficienza energetica degli algoritmi di circa mille volte, ma il numero delle operazioni richieste è cresciuto a un ritmo ancora più rapido. Un asse di ricerca decisivo riguarda l’integrazione tra capacità computazionale e memoria, per ridurre la quantità di dati in transito—una delle voci di consumo più elevate. Modelli alternativi, come DeepSeek, dimostrano che architetture più leggere possono ottenere risultati competitivi anche con potenza computazionale limitata: la Cina sta facendo di necessità virtù rispetto ai tentativi dell’Amministrazione Trump di limitare la vendita di chip avanzati all’estero. Si tratta del resto di un settore al centro di forti tensioni geopolitiche, con gran parte della produzione concentrata in un’area sensibile come Taiwan.





L’adattamento dei sistemi economici e sociali è il secondo asse critico. Mercati del lavoro rigidi rallentano l’adozione dell’IA, mentre contesti più flessibili permettono alle imprese di riorganizzarsi rapidamente. La transizione richiede formazione continua, percorsi rapidi di riqualificazione e una revisione dei modelli educativi. L’intelligenza artificiale, tuttavia, non sostituirà solo attività manuali o ripetitive; introduce un passaggio verso un’epoca post-strumentale in cui l’utilità di un’attività non basta più a giustificarla e il suo valore intrinseco diventa parte della progettazione sociale e culturale del lavoro.
Il terzo asse riguarda la governance. Oggi si confrontano tre modelli: quello cinese, basato su controllo statale e uso intensivo dei dati per la supervisione sociale; quello statunitense, centrato sul mercato e sulla concentrazione industriale; quello europeo, fondato sulla tutela dei diritti e sulla gestione del rischio. L’AI Act ha rappresentato un primo passo nel fissare limiti e valori, ma da solo non basta. Manca un quadro strategico integrato che sostenga lo sviluppo di tecnologie avanzate per l’Europa e in Europa. La dipendenza da data center controllati da attori extra-europei, anche se localizzati sul territorio del continente, rischia di supportare industrie che non rafforzano la sovranità tecnologica europea.
Dal punto di vista del governo della tecnologia, il deep learning pone un problema strutturale: più un modello è potente, meno risulta interpretabile. Le reti neurali creano una sorta di black box senza alcuna possibilità di ricostruire il percorso logico che porta a una determinata risposta dell’algoritmo. Questa opacità genera rischi immediati in ambiti già attivi in cui l’IA inizia a essere usata: dall’erogazione dei mutui ai processi di selezione o licenziamento. In questo contesto, parafrasando von Clausewitz, l’intelligenza artificiale appare come una continuazione dell’epistemologia con altri mezzi.




L’adattamento dei sistemi economici e sociali è il secondo asse critico. Mercati del lavoro rigidi rallentano l’adozione dell’IA, mentre contesti più flessibili permettono alle imprese di riorganizzarsi rapidamente. La transizione richiede formazione continua, percorsi rapidi di riqualificazione e una revisione dei modelli educativi. L’intelligenza artificiale, tuttavia, non sostituirà solo attività manuali o ripetitive; introduce un passaggio verso un’epoca post-strumentale in cui l’utilità di un’attività non basta più a giustificarla e il suo valore intrinseco diventa parte della progettazione sociale e culturale del lavoro.
Il terzo asse riguarda la governance. Oggi si confrontano tre modelli: quello cinese, basato su controllo statale e uso intensivo dei dati per la supervisione sociale; quello statunitense, centrato sul mercato e sulla concentrazione industriale; quello europeo, fondato sulla tutela dei diritti e sulla gestione del rischio. L’AI Act ha rappresentato un primo passo nel fissare limiti e valori, ma da solo non basta. Manca un quadro strategico integrato che sostenga lo sviluppo di tecnologie avanzate per l’Europa e in Europa. La dipendenza da data center controllati da attori extra-europei, anche se localizzati sul territorio del continente, rischia di supportare industrie che non rafforzano la sovranità tecnologica europea.
Dal punto di vista del governo della tecnologia, il deep learning pone un problema strutturale: più un modello è potente, meno risulta interpretabile. Le reti neurali creano una sorta di black box senza alcuna possibilità di ricostruire il percorso logico che porta a una determinata risposta dell’algoritmo. Questa opacità genera rischi immediati in ambiti già attivi in cui l’IA inizia a essere usata: dall’erogazione dei mutui ai processi di selezione o licenziamento. In questo contesto, parafrasando von Clausewitz, l’intelligenza artificiale appare come una continuazione dell’epistemologia con altri mezzi.
Nei settori culturali e informativi, invece, l’IA amplifica sia la creatività sia i rischi sistemici. La produzione automatizzata di contenuti, la saturazione delle piattaforme, le allucinazioni e i deepfake rischiano di minare la capacità collettiva di distinguere tra realtà e finzione. È il “dividendo dei bugiardi”: l’indebolimento della fiducia diventa così un vantaggio per attori autoritari e un rischio per la democrazia. L’intelligenza artificiale può rafforzare il controllo democratico, abilitando il giornalismo investigativo e l’analisi dei dati, ma deve integrata in processi con una significativa presenza umana di controllo e supervisione.
Nel campo della medicina, poi, la tecnologia offre opportunità straordinarie, anche grazie all’ampia diffusione di wearable devices che forniscono importanti quantità di informazioni sullo stato di salute dei pazienti. Il valore dell’IA non sta nel sostituire il medico, ma nel potenziarne giudizio e capacità di cura. Tuttavia, applicazioni in contesti vulnerabili impongono limiti stringenti: occorre incorporare principi etici e deontologici nei modelli e garantire trasparenza sui processi.
Le infrastrutture costruite nei prossimi anni, in tutti i campi che interessano questa rivoluzione, sono cruciali per determinare un’evoluzione positiva del potenziale offerto dall’IA. Senza un sistema credibile di cooperazione globale—o almeno un global understanding su limiti, responsabilità e uso di strumenti come la physical AI che caratterizzerà robot e droni — il rischio di conflitti, uso improprio e perdita di controllo sistemico aumenterà. La direzione non è predeterminata: dipenderà dalla capacità collettiva di combinare innovazione, investimenti, regolazione e visione strategica.


