I costi energetici in aumento e l’apporto dell’AI costringono le grandi società del digitale a ripensare la catena del cloud e a riprogettare i loro data center.
“I crescenti costi energetici e le esigenze sempre maggiori dell’AI stanno spingendo i più grandi attori del Web a ripensare la progettazione e la gestione dei loro data center“. Così TC Brand Studio in una lunga analisi sul tema, ripresa da TechCrunch.
L’aumento dei consumi energetici è un particolare campanello di allarme, visto che l’AI richiede una quantità sempre maggiore di potenza computazionale. Ogni giorno, miliardi di richieste corrono attraverso i data center, “migliorando, velocizzando e rendendo più intuitive le esperienze digitali“.
Il risultato osservato finora è stato “un cambiamento verso chip progettati appositamente per massimizzare l’efficienza energetica senza compromettere le prestazioni“.
L’analisi dell’IEA
Lo scorso aprile, l’Agenzia Internazionale per l’Energia (IEA) ha pubblicato uno studio in materia. Aveva nello stesso indicato che l’uso globale di elettricità da parte dei data center potrebbe più che raddoppiare entro il 2030. Si passerebbe da circa 415 terawattora nel 2024 a quasi 945 terawattora.
Tutta questa energia equivarrebbe ad alimentare tutte le abitazioni in Uk per quasi un decennio. Con queste crescenti richieste, ampliare i data center utilizzando i modelli tradizionali rischia di diventare “insostenibile, sia dal punto di vista economico che energetico“. Ed è qui che si sono indirizzati i grandi investimenti.
Qual è l’apporto dell’efficienza energetica?
Per decenni, “l’architettura che ha alimentato la maggior parte dei data center era basata su chip x86, noti per la loro affidabilità e dominanza nel campo del computing aziendale“. La crescente domanda di servizi cloud e AI ha tuttavia legittimato un cambio di approccio. Al contempo, è necessario garantire delle risposte di massimo livello, anche nei momenti di traffico più elevato.
Oggi, infatti, i principali fornitori di cloud come Amazon Web Services (AWS), Google Cloud e Microsoft Azure stanno sviluppando chip personalizzati ottimizzati per l’efficienza energetica. Questi chip si basano su architetture come quella di Arm. Un’architettura, “progettata specificamente per rispondere alle esigenze prestazionali dei carichi di lavoro legati all’AI“.
Una nuova era di Internet?
Il cambiamento in corso nell’architettura del cloud ha segnato “una svolta strutturale nel modo in cui sta crescendo Internet“. Per decenni, l’attenzione si è concentrata sul mettere sempre più potenza grezza nel sistema. Tuttavia, questo approccio ha smesso di funzionare. I grandi fornitori di cloud si stanno infatti orientando su “processori progettati per l’efficienza piuttosto che per la pura potenza“.
Oggi, le architetture un tempo utilizzate per alimentare miliardi di dispositivi mobili stanno alimentando i più grandi data center globali, eseguendo più lavoro con prestazioni più elevate. Contestualmente, diminuiscono i consumi.
Questo aspetto ha avuto una grande differenza. Non solo per quanto riguarda la domanda energetica globale, ma anche per le esperienze delle applicazioni e i servizi quotidiani degli utenti. Il passaggio verso architetture di calcolo orientate all’efficienza ha trovato piena corrispondenza nell’operatività dei leader del settore come AWS, Google Cloud e Microsoft Azure .
Per approfondire
- Leggi il rapporto IEA su AI e costi energetici.
Vai al sito di Cybersecurity Italia.
L'articolo Come l’AI e i costi energetici stanno ridefinendo l’infrastruttura cloud. Lo studio sembra essere il primo su CyberSecurity Italia.
📖 Leggi l'articolo completo originale:
https://www.cybersecitalia.it/come-l-ai-e-i-costi-energetici-stanno-ridefinendo-linfrastruttura-cloud-lo-studio/57389/ →
