IA: ma quanto mi costi?
L’intelligenza artificiale è entrata prepotentemente nelle abitudini di tutti noi, addirittura ChatGPT è diventata la sua definizione per antonomasia, tanto è diventata di uso corrente. Ormai per qualsiasi dubbio, ci rivolgiamo al nostro “assistente”, sostituendo perfino l’uso di Google: chiedendo al motore di ricerca, bisogna poi scegliere fra le varie risposte quella che ci corrisponde meglio, o che riteniamo più corretta, mentre chiedendo alla IA, “qualcuno” al posto nostro sceglie quella giusta: comodo, facile, veloce. Ma cosa c’è dietro ad una semplice ricerca, per non parlare di operazioni più complicate, come la generazione di un’immagine, fino ad arrivare alla composizione di un brano musicale o la realizzazione di un video? Rispondendo velocemente: tanta tanta energia utilizzata.
Come avviene il consumo
L’intelligenza artificiale consuma energia principalmente attraverso i data center che gestiscono addestramento e inferenza – ovvero l’utilizzo – dei modelli, con un impatto crescente sui consumi globali. Una singola query a modelli come ChatGPT richiede circa 0,3-0,4 wattora (Wh), equivalente a un secondo di forno elettrico o un minuto di lampadina LED [innovationcity]. A livello globale, i data center per AI stanno guidando un boom energetico, con proiezioni di quadruplicare la domanda entro il 2030.[rinnovabili]
Consumi per Query
Ogni richiesta a un’IA generativa come ChatGPT consuma mediamente 0,34 Wh secondo Sam Altman di OpenAI, mentre Google stima 0,24 Wh per Gemini. Query più complesse possono arrivare a 2-4 Wh, circa 10 volte una ricerca Google. L’inferenza (uso quotidiano) rappresenta l’80-90% del totale computazionale AI.[key4biz]. Ma se il nostro appetito aumenta e invece di una semplice richiesta, vogliamo un’immagine, ecco che il consumo si moltiplica dalle 1000 alle 6000 volte, ossia come caricare uno smartphone dalle 3 alle 20 volte [ratiftech]. E se voglio un video? Moltiplichiamo per 30 il “costo” di un’immagine, cioè l’equivalente di percorrere 15-20 km con una Tesla [cnet].
Impatto sui Data Center sull’ambiente
Nel 2023, aziende come Google e Microsoft hanno consumato ciascuna 24 TWh, superando molti Paesi. I data center globali potrebbero raddoppiare i consumi entro il 2026, con AI fino al 49% del totale (circa 23 GW). In Italia, la domanda elettrica per data center è cresciuta del 50% dal 2019.[innovationcity]. Entro il 2030, i chip per AI potrebbero richiedere 170 volte l’elettricità del 2023, superando interi Stati. L’IEA prevede che i data center AI quadruplichino la domanda elettrica. Negli USA, l’AI potrebbe consumare il 22% dell’energia domestica entro il 2028.[greenpeace]. Ovviamente tutto ciò si traduce anche in un impatto ambientale significativo, non solo per i consumi, ma anche per emissioni di CO2 [magia] e uso massiccio di acqua per il raffreddamento [rinnovabili].
Mitigazioni Possibili
Tuttavia l’utilizzo dell’IA potrebbe portare dei miglioramenti per ridurre emissioni e consumo di acqua. È stato stimato che l’ottimizzazione delle reti energetiche possono tagliare 1,4 miliardi di tonnellate di CO2 entro il 2035 [e-gazette], ma tutto ciò richiede trasparenza dalle aziende. Che intanto pagano bollette milionarie, come nel caso di Open AI
![]()


