Analizziamo le ragioni che hanno portato i datacenter a surriscaldarsi, a preoccupare (sia i manager d’azienda, sia quelli d’ambiente) per l’elevato livello dei energia richiesta e qualche suggerimento su come contenerne i consumi, con buona pace di tutti.
In questo spazio (Techne – Con parole mie) i protagonisti della tecnologia raccontano e si raccontano, portando alla luce la miscela virtuosa di tecnica ed esperienza al servizio delle esigenze dell’utenza. Parlano sulla base della conoscenza, evitando di fare riferimento alla propria produzione, bensì portando il discorso su un piano generale e fruibile da tutti.
Il cambiamento naturale del clima fa parte del nostro ambiente. Nel corso degli ultimi 60 milioni di anni sono intervenute diverse variazioni consistenti, tuttavia nel corso degli ultimi 10.000 anni il nostro clima si è rivelato relativamente stabile. Ma i dati rilevati a partire dal 1880 mostrano dal 1980 in poi un aumento nelle temperature a ritmi sempre più veloci.
Di conseguenza, il ventesimo secolo è risultato probabilmente il più caldo degli ultimi 1.000 anni: si è riscontrato un riscaldamento medio di circa 0,6°C, con un aumento più marcato sulla terraferma che nel mare. Sulla superficie della terra ci sono stati più cambiamenti delle temperature negli ultimi 20 anni che negli ultimi 200, e negli ultimi 200 più che negli ultimi 2.000, facendo così degli Anni 90 la decade più calda degli ultimi 100 anni.
Perchè tutto ciò? L’opinione più diffusa è che i cambiamenti ambientali provocati dall’uomo si stanno accentuando.
Fino a poco tempo fa, si riteneva che i cambiamenti nel clima fossero lenti. Nuovi risultati emersi nel 2006 dall’estrazione di campioni di ghiaccio a elevata profondità hanno confermato un aumento nel riscaldamento indiscutibilmente collegato al livello di biossido di carbonio presente nell’atmosfera alla temperatura globale della superficie terrestre, come mostrato sopra. Nel complesso si identificano sei gas serra (o GHG), ma il biossido di carbonio (CO2) è il più importante per quantità.
A partire dalla rivoluzione industriale abbiamo cominciato a utilizzare il cielo come discarica, facendo in modo che il livello di CO2 presente nell’atmosfera sia arrivato ora al livello più alto in 400.000 anni e sia di un terzo più alto rispetto al periodo pre-industriale di 200 anni or sono. Ogni anno il livello di CO2 aumenta di un altro 0,5-1%. Con una presenza nell’atmosfera superiore ai 100 anni, la concentrazione di CO2 continuerà a crescere di pari passo con il prosieguo delle emissioni dovute alle attività dell’uomo. Di conseguenza, stanno cambiando i rilevamenti sulla piovosità, i livelli dei mari aumentano a causa dello scioglimento dei ghiacciai e la banchina artica si assottiglia, mentre l’incidenza di manifestazioni meteorologiche estreme aumenta a livello mondiale.
Cosa succederà se non facciamo nulla?
Oggi il costo dell’indifferenza è stimato in misura decisamente maggiore rispetto al calcolo che stabiliva un valore compreso tra 1 e 3% del Pil globale cinque anni fa. Gli effetti previsti per il futuro sono molto più estesi che un semplice e uniforme riscaldamento dell’intero pianeta, in quanto il riscaldamento produce anche un’alterazione del ciclo di formazione/evaporazione di piogge/nuvole, collegato alle correnti atmosferiche e alle correnti marine. Di conseguenza, molte regioni diventeranno decisamente più calde o più fredde, o più piovose o più aride, piuttosto che altro ancora. Il surriscaldamento globale del clima inciderà sui luoghi e la durata di periodi di siccità e sull’estensione dei deserti. L’impatto economico viene attualmente stimato come molto importante: il rapporto Stern del Governo della Gran Bretagna dell’ottobre 2006 stima in impatto economico il cui costo sarà compreso tra il 5 e il 20% della produzione mondiale nei prossimi 2 secoli.
Cosa c’entrano l’It, e il datacenter in modo particolare, con tutto questo?
Entrando nel merito di ciò che riguarda i data center aziendali, in che misura il consumo energetico contribuisce all’effetto serra? Limitare le emissioni di gas a effetto serra nell’intero ambito aziendale sta diventando una nuova questione a carico dei consigli direttivi. Inoltre, dal momento che la compiente It ha un ruolo decisamente importante nelle emissioni complessive (per intenderci, i data center consumano tra il 4 e il 5% dell’energia prodotta nelle principali economie occidentali), i datacenter e l’It in generale sono destinati in un futuro prossimo a rientrare sotto la regolamentazione governativa al pari di quanto è stato fatto per i viaggi aerei?
Prendiamo in considerazione una grande azienda europea che per esempio opera lungo l’intera Europa e a livello globale. Nei suoi principali data center sparsi nella UE, generalmente ogni edificio ha un consumo complessivo di corrente per i suoi server pari a 7MW, (Mega Watt). E il calore incide per il 91% dell’energia consumata. Quindi, i server utilizzano solamente il 9% della corrente espressamente dedicata a loro i processi di calcolo, il resto è calore dissipato. E l’azienda presa in esame ha due data center di questa dimensione, a cui si aggiungono altri tre grandi circa un terzo di questi, tutti in un unico stato, consumando in totale circa 20 MW – quanto una piccola centrale elettrica. Nel caso specifico, sono anche operativi data center di maggiori dimensioni sparsi in Europa e in tre stati membri e alcuni più piccoli in una ventina di altre nazioni in giro per il mondo, comprese le nazioni Ue.
D’altra parte, il consumo di energia può anche essere maggiore. Per ogni Watt di corrente DC consumata dalla scheda madre del server, per ciascun router o dispositivo di storage, deve essere fornita una potenza compresa tra 1,8 e 2,3 watt di corrente AC. Il resto è disperso in circuiti di raffreddamento, perdite nella conversione da AC a DC e nel sistema di distribuzione della corrente a causa di trasformatori e cavi. Così, l’energia richiesta può arrivare a essere il doppio del livello di corrente DC specifica per il singolo server o disco di storage. Nel complesso, i 7MW di un datacenter possono aumentare tra il 70% e il 100% a causa di ventole, ecc. Inoltre, la crescita nel consumo di corrente è una tendenza generale nei data center conseguenza dell’aumento nella domanda di processi orientati a Internet per effetto della crescita dell’e-commerce e delle tecnologie Web, utilizzando portali che si appoggiano a diversi server Web. Per esempio, negli Stati Uniti Google utilizza nel suo data center mezzo milione di server. Una questione cruciale è: di recente avete provveduto a fare una stima del consumo di energia, corrente e sistemi di raffreddamento?
La dimensione del problema
Quanto contano i datacenter nel computo complessivo del consumo energetico e quanto nell’emissione di gas a effetto serra? Concentrandosi sull’Ue, come abbiamo visto, i datacenter di maggiori dimensioni possono arrivare ad assorbire direttamente tra 7 e 12 MW ciascuno, con una media probabilmente intorno ai 10 MW. Guardando a questo in termini comparativi nell’arco di un anno con i trasporti aerei e i consumi interni delle principali economie Ue, è possibile valutare l’importanza relativa dei data center in qualità di principali produttori di gas a effetto serra. Dopo un anno, un data center di grosse dimensioni (10 MW) produce emissioni equivalenti a circa 2.600 case residenziali nelle maggiori economie Ue, o circa 18.000 voli intercontinentali di 3.470 miglia, Londra-New York, mentre un piccolo data center (2 MW) equivale a circa 520 abitazioni o circa 3.600 voli intercontinentali .
Inoltre, ai ritmi attuali la domanda di spazi nei data center in ambito UE potrebbe registrare una crescita compresa tra il 25% e il 45% fino al 2010. Questo determinerebbe un aumento di utilizzo di energia per metro quadro, fino a oltre il 45%, a meno che la tecnologia dei processori non compia passi avanti. Inoltre, nel 2010 il raffreddamento richiesto per metro quadro potrebbe crescere anche più velocemente, a meno che i processori non riducano il calore prodotto per singola unità di calcolo, dal momento che maggiori potenze di calcolo vengono racchiuse nello stesso spazio. E tutto questo presenta costi decisamente elevati. La corrente elettrica incide attualmente per il 30% sui costi operativi opex di un data center. Nelle maggiori economie della UE, il data center costa in media 5,3 milioni di euro l’anno. Entro il 2010 in Europa, la crescita nei costi energetici potrebbe raddoppiare l’opex fino a 11 milioni, in gran parte a causa dei costi dell’elettricità. Analizzando i costi complessivi per la gestione delle risorse IT di un’azienda, risulta che circa il 60% possono essere in qualche modo collegati all’energia. Più precisamente, Vodafone ha di recente rilevato di sostenere una bolletta annuale per l’energia elettrica pari a 43 milioni di euro (28 milioni di sterline), il 78% dei quali riconducibili all’It in un paese Ue.
Come è possibile intervenire? Con una strategia It per un datacenter rispettoso dell’ambiente
È possibile combattere questo problema di consumo energetico e riscaldamento? E in caso positivo, come? Al momento, la strategia di aumentare la concentrazione dei server presenti nei data center per aumentare la potenza di calcolo non è più una via praticabile. Inevitabilmente, la tendenza è di un maggiore consumo di energia per metro quadro e altrettanto per il sistema di raffreddamento, Tuttavia, qua emerge un fattore critico: lo sfruttamento medio dei server in qualsiasi momento è intorno al 15% se non di meno.
L’utilizzo varia a seconda del tipo di server: può essere inferiore al 2% per i server Wintel, forse intorno al 20-30% per i server Linux più recenti, mentre per i mainframe il problema è più vicino alla soluzione, in quanto lo sfruttamento medio è più o meno del 70%, con punte dell’80-90%. Il problema per la maggior parte dei data center è quindi nel fatto di ospitare troppi server inutilizzati, che consumano elettricità non necessaria, generano calore e contribuiscono a innalzare le emissioni di CO2 (forse addirittura sei volte più del necessario o anche di più). Bisogna arrivare a rivedere completamente le strategie It aziendali secondo la prospettiva di una riduzione delle emissioni, dove il punto cruciale è la razionalizzazione nell’utilizzo, così da ridurre il numero dei server.
La via da seguire è prima di tutto avviare il consolidamento di molte risorse in un numero limitato, sia che si parli di server o di un intero data center, e successivamente seguire forme di virtualizzazione – cioè fare in modo che un server lavori maggiormente ricoprendo il ruolo di più macchine virtuali per diversi ambienti, per far sì che ne siano necessari di meno.
Si suggerisce, pertanto, una rivisitazione del portafoglio applicazioni con cinque passi capaci di controllare il consumo energetico.
Qualsiasi elemento dell’It deve essere orientato alla produttività, ma la funzione It può offrire un migliore sostegno solamente se è il business a indicare come e se l’It a sua volta deve essere in grado di riferire cosa sta fornendo, in termini di business piuttosto che di tecnologia. Inoltre, un programma per un’It eco-compatibile dovrebbe formare parte di una strategia aziendale nel suo insieme, così da ridurre le emissioni e il fabbisogno energetico. Di conseguenza, esamineremo di seguito un numero di passaggi utili a mettere a punto una soluzione strategica, prima di tutto a livello applicativo, quindi al livello della piattaforma dei processi. Dal punto di vista del software le soluzioni generalmente puntano sulla riduzione dell’energia e il raffreddamento attraverso l’ottimizzazione della messa in opera delle restanti applicazioni in portafoglio e così via, riducendo il numero di server presenti nel data center.
Riesaminare il portafoglio applicazioni
Dal momento che l’utilizzo dei server è in genere così basso, il dipartimento It dovrebbe affrontare un confronto con gli utenti per discutere una nuova strategia It, con l’obiettivo comune di ridurre le emissioni. È necessario individuare quelle applicazioni realmente indispensabili per le esigenze aziendali. Bisognerebbe inoltre domandarsi se tra le altre ce ne sia qualcuno che abbia bisogno di essere minimamente in esecuzione. Tale strategia risponde al principio che solamente quelle applicazioni che risultano indispensabili al business dovrebbero restare in esecuzione – alcune invece potrebbero essere eliminate, e altre caricate invece on demand al momento della specifica richiesta.
Tale approccio richiede anche di individuare quali applicazioni possono essere combinate su un unico server da un punto di vista della produttività, piuttosto che avere una macchina e risorse di storage dedicate per ogni applicazione. Un ulteriore obiettivo è di rendere ogni server compatibile con qualsiasi applicazione, così che queste risultino tra loro interscambiabili:l’applicazione non deve preoccuparsi su quale server è in esecuzione e l’ulteriore flessibilità riduce il numero complessivo di tutti i server. Ma questo può comportare un ripensamento delle architetture per le applicazioni e dell’infrastruttura dei server. Guardiamo ora a come sviluppare tutto questo a un livello di piattaforma operazionale.
Cinque passi per risparmiare energia a livello di piattaforma operazionale
Ovvero: analisi, garanzia di prestazioni, gestione delle prestazioni, gestione e configurazione delle risorse per prepararsi all’ottimizzazione energetica, prima di procedere alla razionalizzazione, esaminiamo e comprendiamo la situazione attuale.
1- Prima di tutto è necessario comprendere a fondo la topologia della rete, dei data center e i processi di business, cioè qualsiasi cosa sia collegata alle risorse fisiche e ai rispettivi ruoli funzionali. Questo può sembrare semplice in alcune aziende, in modo particolare se esistono già un inventario completo e una configurazione aggiornati. Ma in molte organizzazioni è indispensabile una fase di analisi della topologia funzionale, per rimodulare le risorse fisiche sulla base dei processi applicativi. Dall’analisi della topologia operativa e un modello dell’installato esistente, è possibile muoversi in direzione dell’ottimizzazione. Un altro elemento di base per l’analisi e la stima dell’assorbimento attuale di energia collegato all’It è individuare il consumo energetico totale, possibilmente dettagliato per server, per applicazione e, se possibile, per ogni processo di business.
2 – Il passo successivo è quello di analizzare le prestazioni fornite, proprio perchè ogni elemento si comporta in modo particolare. Questo richiede la comprensione del contesto storico delle operazioni It rispetto ai processi di business, con gli ambienti fisici e virtuali dei server e il relativo utilizzo, unito al modo in cui database, reti e sistemi operativi differenti vengono usati nel contesto giornaliero. L’obiettivo è di individuare server e applicazioni che si presentino come potenziali candidati per operazioni di consolidamento e virtualizzazione, Ma un consolidamento deve essere eseguito in modo da assicurare il throughput aziendale complessivo, in modo particolare garantendo adeguato livello di servizio, tempo di risposta e prestazioni di rete fornite al business, a scapito di reticenze nei confronti di cambiamenti nell’ambiente It.
3 – Analisi della gestione delle conseguenti prestazioni, cioè come ottimizzare la gestione in tempo reale delle risorse e di qualsiasi evento che può capitare e come questo è attualmente effettuato, come la gestione dei picchi nelle richieste per i processi legati alle transazioni, eventualmente rispondendo con piattaforme di server differenti e riconfigurandoli per un’ottimizzazione dinamica intelligente.
4 – Una volta completata la conoscenza sulla base installata e i processi attuali (e avendo individuato qualsiasi anomalia in termini energetici) è possibile avviare un nuovo progetto. È possibile disegnare una gestione ottimizzata delle risorse disponibili in ottica di prestazioni sia dal punto di vista energetico sia dal punto di vista della produttività. È possibile di conseguenza memorizzare la configurazione di massima efficienza energetica, in un apposito strumento per la gestione (magari all’interno di un Cmdb) con dettagli di tutte le risorse fisiche e dei software e i relativi ruoli, in riferimento ai processi di business, in modo che siano incluse anche le spese per l’energia.
5 – Infine è possibile rendere operativi i cambiamenti pianificati attraverso una nuova configurazione, nell’ambito di una fase di change management, attraverso test e prove pratiche della nuova configurazione energetica confrontandola con benchmark sulle prestazioni. Invece che un unico passaggio invasivo, i passaggi 4 e 5 possono diventare un processo iterativo finalizzato a trovare per gradi il giusto equilibrio tra prestazioni di business e risparmio energetico. Una volta che la configurazione logica è stata approvata, un ripensamento fisico del data center in ottica di raffreddamento ed efficienza energetica può essere il passaggio finale in questa procedura.
Di seguito, esaminiamo i possibili sviluppi futuri per i punti 2 e 3 riguardanti il consolidamento di server e datacenter, e per migliorare la virtualizzazione dei server.
Gestione dinamica delle applicazioni tra server: tecnologie grid e di virtualizzazione.
La nostra strategia per la riduzione dei server è di condividere i server tra più applicazioni piuttosto che utilizzare server dedicati per ciascuna applicazione, in modo che non rimanga più un server sul quale è in esecuzione una sola applicazione. È richiesto anche uno scheduling dinamico in grado di ottimizzare il throughput. A questo proposito esistono diversi approcci. Il primo, attualmente anche il più semplice ed economico, è quello di collocare diversi ambienti su un unico server oppure su una serie di server in cluster o in modo dinamico sulla base di esigenze variabili, utilizzando un apposito software di virtualizzazione accessibile attraverso un fornitore o un servizio erogato da un Isv. La virtualizzazione rende possibile l’esecuzione di diversi sistemi operativi e applicazioni su partizioni dello stesso server fisico, in modo da risparmiare su hardware, energia, raffreddamento e spazio all’interno dei data center. Sul mercato si sta ora affacciando un approccio più sofisticato, quello di organizzare in modo dinamico l’allocazione dinamica dei server a seconda di come si presentano disponibili, per decidere ogni volta su quale eseguire la singola applicazioni. È un’evoluzione della tecnologia di grid computing, capace al momento di eseguire un’applicazione di amministrare e caricare un intero ambiente su uno o più server. Per ottenere questo in modo uniforme, il job scheduling richiede anche un sistema di gestione intelligente, in modo da assicurare che le risorse siano libere e adeguate alla successiva richiesta di elaborazione, in termini di potenza di calcolo, storage e risorse di input/output.
Soluzioni di gestione proattiva dei sistemi: le funzioni per la gestione dei sistemi in futuro ricopriranno un nuovo ruolo; l’economia dei server. L’obiettivo è di gestire le applicazioni in modo da riuscire a combinare carichi di lavoro interattivi legati a processi batch e in tempo reale in una sequenza di elaborazioni che complessivamente produca dei risparmi sulle richieste di capacità di elaborazione – in modo da suddividere il carico tra un numero inferiore di server. Si dovrebbe anche ridurre al minimo i server richiesti in fase di backup, che si trovano in standby, ma sono comunque accesi. Per semplificare all’operatore dei sistemi la necessaria riconfigurazione, è richiesto uno strumento di gestione di sistemi dotato di funzionalità evolute, accompagnato da un cruscotto avanzato che mostri il consumo attuale di energia, illustrato mediante lo storico dei log. Ma l’elemento chiave è una ricerca attiva della configurazione ottimale in modo da permettere una strategia di economia energetica. Per una gestione dell’energia operativa, i futuri sistemi di gestione potrebbero aver bisogno di aggiungere la misurazione del consumo energetico attraverso sensori a livello di schede madri/server, nel rispetto di Snmp, lo standard di settore in tema di gestione.
Archiviazione dei software di sistema
Compattare i dati utilizzando tecniche avanzate di compressione su disco e su nastro laddove sono utilizzate San e batterie di nastri può rappresentare un risparmio sia in termini di energia sia in termini di spazio.
Rifiutarsi di reagire di fronte alla minaccia di riscaldamento globale si rivelerà sempre più come una decisione strategica errata.
Un’azienda che dimostra di non credere nelle minacce del clima e non incoraggia i propri dirigenti e responsabili It a prendere in seria considerazione i cambiamenti climatici è destinata a scontrarsi con le leggi e i costi. Dovrà affrontare un aumento a spirale della bolletta energetica e di raffreddamento per trovarsi a gestire data center inefficienti, e potenzialmente potrebbe trovarsi a dover subire sanzioni conseguenti a nuove normative. Tutto ciò produce un importante impatto sul business, evidente già a basso livello.
Viceversa, quelle aziende che guardano ai cambiamenti nel clima e li riconoscono per ciò che sono, effettueranno i cambiamenti necessari nei data center, sviluppando al tempo stesso da parte del top management un’attitudine positiva al rapporto con i cambiamenti climatici. Questi agiranno con responsabilità, trovandosi preparati di fronte agli eventi. Trarranno benefici dalla riduzione dei costi per i data center e con un It più allineata con le esigenze del business – cioè riducendo le emissioni, contribuendo alla salvezza del pianeta evitando al tempo stesso sanzioni per la non conformità con le leggi di prossima emanazione.
Per cambiare il mondo è necessaria un’azienda capace di cambiare, l’azienda di domani.
* Corporate Strategist di Bmc Software