Effettua la tua ricerca
More results...
Mutuo 100% per acquisto in asta
assistenza e consulenza per acquisto immobili in asta
Siamo entrati in una nuova fase della rivoluzione dell’intelligenza artificiale. Non è più solo una questione di capacità, di velocità o di accuratezza: adesso è diventato un problema di pura e semplice energia elettrica. I data center che ospitano i server per addestrare e far funzionare i modelli di AI stanno diventando enormi e divorano elettricità a ritmi spaventosi. E le previsioni per il futuro sono ancora più allarmanti.
I numeri fanno girare la testa: secondo l’International Energy Agency, nel 2022 i data center hanno consumato 1,65 miliardi di gigajoule di elettricità, circa il 2% della domanda globale. Per il 2026 si prevede un aumento tra il 35% e il 128%, l’equivalente dei consumi annuali della Svezia nel caso migliore o della Germania in quello peggiore. Una singola richiesta al chatbot GPT-4 consuma l’energia necessaria per ricaricare completamente uno smartphone. E addestrare un grande modello linguistico “americano” (tra un attimo vedremo perché) richiede l’equivalente del consumo annuale di 3.700 famiglie americane.
Il ruolo dei processori specializzati
Il problema non è solo di scala ma anche di architettura. Migliaia di processori specializzati, le famose GPU (Graphics Processing Unit), lavorano in parallelo per addestrare i modelli di AI. Come sappiamo Nvidia, l’azienda che domina questo mercato, ha visto il suo valore salire alle stelle proprio grazie a questa corsa all’oro digitale. Ma questi chip sono estremamente energivori: un singolo rack di GPU di ultima generazione (un armadio alto poco meno di due metri con dentro i singoli server multi-GPU) può consumare fino a 35 kilowatt. Per dare un’idea di cosa parliamo, è l’equivalente di 25 appartamenti. E un data center contoene centinaia di rack.
È un dramma per l’ambiente e per l’economia. Ma la situazione sta diventando insostenibile anche per i giganti del settore. Google ha riportato un aumento del 48% delle emissioni di CO2 negli ultimi cinque anni, mentre Microsoft ha visto crescere le sue del 30% dal 2020. I big compensano comprando “crediti” e travestendo il loro impatto ambientale in neutro, ma in realtà il consumo di energia sta esplodendo. E dal punto di vista ambientale non è finita qui. Infatti, i data center non solo divorano energia per far funzionare i processori, ma ne richiedono altrettanta per il raffreddamento: milioni di litri d’acqua al giorno per tenere le temperature sotto controllo, mossi da pompe e impianti alimentati ad energia.
La sorpresa dalla Cina
In questo scenario è arrivata come un fulmine a ciel sereno la notizia di DeepSeek. L’azienda cinese ha sviluppato un modello di AI che promette prestazioni simili a GPT-4 consumando, a suo dire, tra il 10% e il 4% dell’energia. Una differenza così marcata da aver scatenato un terremoto in Borsa, con il crollo dei titoli di Nvidia e delle utility americane. Un risultato ottenuto non con hardware rivoluzionario, ma ottimizzando il software e l’architettura del sistema.
La notizia ha fatto rapidamente il giro del mondo. Un articolo su Nature ha confermato perliminarmente che DeepSeek richiede circa un undicesimo delle risorse computazionali rispetto a un modello simile di Meta. Gli analisti occidentali, inizialmente scettici, si stanno ricredendo di fronte a questi dati. Le conferme sembrano esserci. E ora si chiedono se questo non rappresenti un cambio di paradigma nel settore.
La corsa alle soluzioni
Le big tech americane non sono rimaste a guardare. Una soluzione è quella che sta spingendo tutti di nuovo verso il nucleare. Più moderno, più pulito, ma sempre nucleare. Che in Italia è stato vietato con un famoso referendum, ma la cui energia viene utilizzata lo stesso acquistandola dalle centrali francesi.
Microsoft ha stretto un accordo con Constellation Energy per riattivare un reattore della centrale nucleare di Three Mile Island in Pennsylvania, dedicandolo esclusivamente ai suoi data center. Nvidia sta sviluppando chip sempre più efficienti, promettendo miglioramenti del 4.000% nell’efficienza energetica. Amazon e Google puntano invece sulle rinnovabili, con progetti per data center alimentati da sole e vento. Infine, ci sono varie startup che stanno cercando di costruire reattori a fusione anziché a fissione nucleare, mini reattori e altri sistemi sempre basati sugli atomi per produrre energia in abbondanza e velocemente. Oppure soluzioni più creative come quella di pannelli solari in orbita che “sparano” l’energia a terra verso centri di raccolta tramite microonde oppure raggi laser.
Ma il vero problema potrebbe essere strutturale. La ricerca spasmodica di modelli sempre più grandi e potenti sta portando a un circolo vizioso di consumi crescenti. Gli esperti in passato (già prima dell’exploit cinese) suggerivano che potrebbe essere più sensato sviluppare modelli più piccoli e specializzati, ottimizzati per compiti specifici, invece che sistemi generalisti enormi. Una via che sembra essere stata seguita con successo da DeepSeek.
Il tema dell’ottimizzazione e del proporre iterazioni migliorative delle stesse tecnologie è però alieno alla forma mentis della Silicon Valley, che si è sviluppata con in mente il paradigma Wintel. Negli anni Novanta e primi duemila infatti Intel e Microsoft avevano sviluppato una intesa fatta di cicli rapidi di innovazione basati non sull’ottimizzazione dell’esistente ma sul rilascio di novità non più compatibili con le generazioni precedenti.
Funzionava così: un anno Intel rilasciava nuovi processori che permettevano di usare al meglio l’ultima versione di Windows e un anno Microsoft rilasciava una nuova versione di Windows che richiedeva nuovi processori per essere usata al meglio. L’incentivo a fare una nuova versione di Windows che fosse ottimizzata per funzionare con i processori di cinque-sei anni prima era zero, perché avrebbe fermato la vendita di nuovo hardware.
La questione della sicurezza
Torniamo ai datacenter di oggi. C’è anche la via alla ottimizzazione, come apparentemente fatto da DeepSeek. Tuttavia, non tutti sono convinti che la soluzione cinese sia praticabile su larga scala. Betsy Soehren Jones, della società di consulenza West Monroe, fa notare che le grandi aziende americane difficilmente affideranno i loro dati sensibili a un’azienda cinese. Il caso TikTok ha creato un precedente difficile da ignorare. Inoltre, il vantaggio energetico di DeepSeek potrebbe essere limitato alla fase di addestramento, mentre durante l’uso quotidiano i consumi sarebbero simili agli altri modelli.
La questione energetica sta anche influenzando le strategie di crescita del settore. Il progetto Stargate, presentato da Trump e sostenuto da diverse big tech americane, prevede investimenti per 500 miliardi di dollari in data center nei prossimi quattro anni. Ma l’arrivo di DeepSeek potrebbe rimescolare le carte. Gli analisti di Morgan Stanley ritengono che “il mercato abbia sovrastimato l’impatto negativo della tecnologia cinese” (cioè che il crollo del titolo di Nvidia e degli altri big del tech sia stato eccessivamente punitivo), ma ammettono che l’approccio americano rimane “altamente intensivo sia in termini di capitale che di energia”
Verso un futuro sostenibile?
Il paradosso è che l’AI potrebbe essere parte della soluzione. I sistemi di intelligenza artificiale sono già utilizzati per ottimizzare i consumi energetici in vari settori, dall’industria ai trasporti. Potrebbero aiutare a gestire meglio le reti elettriche, integrando le fonti rinnovabili e riducendo gli sprechi. Ma per farlo, devono prima risolvere il proprio problema di sostenibilità.
Il dibattito è aperto e le soluzioni non sono semplici. Da un lato c’è la necessità di continuare lo sviluppo dell’AI, dall’altro l’imperativo di farlo in modo sostenibile. Le aziende stanno esplorando diverse strade, dal nucleare alle rinnovabili, dall’ottimizzazione del software a nuovi tipi di hardware. La sfida è trovare un equilibrio tra innovazione e sostenibilità prima che la fame di energia dell’AI diventi ingestibile.
Il futuro potrebbe essere fatto da un mix di approcci diversi? È la soluzione più plausibile, se ricordiamo che la verità, oltre alla virtù, sta quasi sempre nel mezzo. Modelli più efficienti come DeepSeek, energia pulita dai reattori nucleari di nuova generazione, hardware ottimizzato e una maggiore attenzione all’efficienza energetica. Quello che è certo è che l’era dell’AI a tutti i costi, senza preoccuparsi dei consumi, è definitivamente tramontata. E forse è un bene.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link