Big data, virtualizzazione ed efficienza, fra i must dell’anno per il Cto di Hitachi Data Systems, Hu Yoshida.
Per il Vp e Cto di Hitachi Data Systems, Hu Yoshida, il 2012 sarà dominato da cinque tendenze: l’esplosione dei big data, l’aumento della virtualizzazione storage, il consolidamento verso la convergenza, la necessità del raggiungimento di una reale efficienza energetica e il bisogno di colmare la lacuna generata dall’eccessivo consumo.
Per Yoshida si è già parlato molto del problema dei big data e non ci saranno cambiamenti nel 2012. Ma mentre lo scorso anno l’attenzione era rivolta al modo in cui dare un senso logico a grandi quantità di dati generati da macchine provenienti da una sola fonte, oggi le aziende hanno compreso che il problema reale è nello sviluppo delle applicazioni: vi sono quantitativi di dati generati da migliaia di diverse applicazioni ed è necessario trovare un modo per raggrupparli e trasformarli in informazioni utili che possano apportare valore aggiunto all’azienda.
È più difficile analizzare e gestire quantitativi di piccoli dati rispetto ad un grande insieme di dati; ed è in questa direzione che le aziende si muoveranno alla ricerca di innovazioni, e il raggruppamento dei dati che precedentemente erano immagazzinati in applicazioni specifiche supporterà la crescita a lungo termine.
Alcune disposizioni, come la riforma dell’Unione europea della normativa sulla protezione dei dati, accentueranno di più all’attenzione sulla questione della gestione e della conformità dei dati.
Le aziende cercheranno infrastrutture che consentano l’implementazione a basso costo di policy di gestione dei dati non senza qualche difficoltà nell’evolvere verso modelli di consumo cloud, proteggendo al tempo stesso le informazioni dall’esposizione e da altri ordinamenti legali.
La virtualizzazione dello storage
E mentre i volumi di dati continueranno a crescere, il budget per aumentare la capacità di storage sarà sempre più limitato a causa della continua incertezza economica globale.
Per superare queste difficoltà, le aziende cercheranno nuove modalità per aumentare l’utilizzo delle loro risorse di storage.
Un punto a favore è rappresentato dalla grande capacità inutilizzata e sovra-allocata che deve essere riabilitata e con cui è possibile aumentare l’utilizzo di risorse di storage dai livelli storici del 20-30% fino al 50-60%, grazie a nuove tecnologie quali il thin provisioning, il dynamic tiering, la deduplicazione e l’archiviazione attiva.
Le società che utilizzano le sopracitate funzionalità detengono una posizione di vantaggio competitivo.
Le imprese che invece non hanno investito in queste tecnologie al momento dell’acquisto dei loro sistemi di storage non devono attendere altri tre anni mentre concludono la capitalizzazione delle loro risorse, ma possono orientarsi a la virtualizzazione dello storage.
Verso la convergenza
Per ridurre i costi l’It si è concentratoa sul consolidamento dei server da parte di hypervisor, così come sul consolidamento dello storage sulla San. Sono già stati raggiunti i primi risultati e, per una maggiore efficienza dal punto di vista dei costi, l’attenzione deve ora essere spostata verso la convergenza dei server, dello storage, delle reti e delle applicazioni.
Le interfacce di programmazione di un’applicazione, che scaricano il carico di lavoro sullo storage, possono rendere i server e la memoria più efficienti. Il software di orchestration consentirà una convergenza della gestione, dell’automazione, del provisioning e dell’attività di reporting in infrastrutture di server, di storage e di rete locali, remote e basate sul cloud.
Le architetture di riferimento per applicazioni quali i database Exchange e Oracle, preconfigurate e precertificate, abbrevieranno i tempi e gli sforzi necessari per supportare le applicazioni.
Mentre il consolidamento verteva principalmente sulla riduzione dei costi di acquisizione, la convergenza è orientata sulla riduzione dei costi operativi, quali il provisioning, la migrazione, il bilanciamento del carico e la gestione globale dell’infrastruttura, offrendo tempi più rapidi di implementazione e di erogazione dell’applicazione.
La convergenza in silos di infrastrutture ha anche un’implicazione riguardante la modalità con la quale l’It è gestito. Molti It shop sono organizzati in silos, con amministratori separati per server, storage, reti, database e hypervisor, mentre la soluzione ottimale per ottenere una buona convergenza consisterebbe nell’avere un’organizzazione di tipo orizzontale.
L’efficienza energetica conta
L’energia, il raffreddamento e le emissioni di CO2 diventeranno più importanti con l’aumento della domanda energetica e con l’imposizione delle carbon tax da parte dei diversi Paesi.
Ai reparti It sarà richiesto di assumersi la loro parte di responsabilità per ottenere una maggiore efficienza energetica e contribuire concretamente nel processo di riduzione delle emissioni di CO2.
I server hanno giocato un ruolo attivo nella riduzione dei consumi nei datacenter, non esercitando invece alcuna influenza sullo storage.
Vi sono però state alcune implementazioni nello storage e nella gestione dei dati che consentono di rendere lo storage più sostenibile.
Dal lato fisico la più importante è stata l’introduzione dei dischi da 2,5 pollici che consumano la metà rispetto ai dischi di 3,5 pollici che fino a poco tempo fa erano utilizzati come standard.
E con un packaging più denso di moduli a disco si può ridurre la superficie occupata e soddisfare i requisiti di raffreddamento, consentendo inoltre la sostituzione delle batterie con dischi solidi per proteggere la memoria cache volatile.
La virtualizzazione dello storage può ridurre la necessità di capacità di storage e i costi energetici e di raffreddamento connessi, nonché automatizzare il tiering di dati meno attivi in dischi di maggiore capacità, eseguire il thin provisioning di volumi sovra-allocati e consolidare silos di storage esterni in un pool comune di risorse storage.
La deduplicazione consente inoltre di diminuire la necessità di capacità di disco. Tutti questi miglioramenti possono condurre ad un risparmio del 40%-60% circa nel consumo di energia per lo storage.
Nel 2012 l’attenzione sarà prevalentemente rivolta all’utilizzo dell’energia per lo storage con un’enfasi maggiore sui dischi di dimensione minore, sulla virtualizzazione dello storage e sulla virtualizzazione dei dati, al fine di ridurre i costi energetici e la carbon tax per i datacenter.
Razionalizzare l’uso
Negli ultimi anni sono diventate disponibili nuove tecnologie per le operazioni It consentendo da un lato un’adozione significativa della virtualizzazione dei server, ma comportando dall’altro una crescente lacuna relativa al consumo. La tecnologia di virtualizzazione dei server sta avanzando rapidamente con Vaai in Esx 4 e a seguito dell’introduzione di vSphere 5.
Molti utenti, però, sono ancora su Esx 3 e non possono usufruire dei vantaggi di Vaai o di vSphere 5, in quanto non hanno potuto aggiornare il loro hypervisor o i loro sistemi storage al fine di supportare queste nuove funzionalità.
I fornitori di storage hanno inoltre introdotto il thin provisioning con le funzionalità zero page reclaim, dynamic tiering, archiviazione e deduplicazione o single instance store, ma diversi amministratori di storage non hanno implementato queste funzionalità che avrebbero consentito di ridurre il loro capitale e i loro costi operativi di almeno il 40%.
È necessario tempo per imparare l’utilizzo delle nuove tecnologie, pianificarne l’implementazione e l’integrazione con i sistemi esistenti ed eseguire i progetti.
Senza l’esecuzione di una pianificazione corretta, l’It può ritrovarsi ad avere un maggior carico di lavoro e ritardi.
L’It, quindi, dovrà saper sfruttare i servizi di terzi per colmare questa lacuna, delegandogli parte del lavoro difficile, per poter incrementare una formazione adeguata del personale operativo sulle attività di pianificazione.
- Dietro ai big data ci deve essere un datacenter
- Il datacenter che supporta i big data
- Oracle abbassa il costo dei big data
- Data scientist: quando i big data fanno nascere una nuova professione It
- I big data e l’ago nel pagliaio: NetApp punta su Hadoop
- Analisi unificata dei big data: pronta l’appliance di Emc
- Big data: anche Emc scommette su Hadoop
- Ibm: le mani sui big data vanno messe subito
- Red Hat, la semplificazione della virtualizzazione
- Virtualizzazione: a Roma è nato il software più realista del re
- Backup: dopo la virtualizzazione a Oulu si fa con i dischi
- Accesso dati 24×7: Tap ha virtualizzato il nastro
- Come Riso Gallo ha virtualizzato lo storage
- C’è la beta di Red Hat Enterprise Virtualization 3.0
- Conferme: le grandi aziende sono sempre più virtualizzate
- La virtualizzazione rischia di arenarsi alla fase uno
- Carglass aumenta la competitività con lo storage
- Infortrend, più storage tiering automatico
- Come fare tiering negli ambienti di storage Raid
- Come Ibm finanzia il rinnovo di server e storage
- Snia: lo storage networking si ciba di standard