Lo sostiene George Teixeira, ceo di DataCore Software. Siamo alla fase due della virtualizzazione e riguarda lo storage.
Per molto tempo i Cio aziendali si sono sentiti dire di virtualizzare, pena l’arretratezza, e dopo avere verificato la validità di questo messaggio non hanno potuto negare i benefici che derivano dalla sua applicazione, dando così il via alla corsa alla virtualizzazione.
Oggi, secondo George Teixeira, presidente e ceo di DataCore Software, si assiste alla spinta per la creazione di datacenter definiti dal software.
Ovviamente, c’è una certa attesa per capire se questi ambienti saranno in grado di gestire adeguatamente i requisiti prestazionali e di disponibilità delle applicazioni aziendali critiche, specialmente quando si esamina l’elemento storage dell’equazione.
In passato i decisori aziendali avevano buone ragioni per preoccuparsi, ma oggi hanno un ottimo motivo per accogliere le nuove piattaforme di virtualizzazione dello storage, che hanno dimostrato di poter superare gli ostacoli legati all’I/O.
Una storia analoga
Proprio come avvenuto con gli hypervisor per i server, che hanno messo a disposizione una piattaforma operativa virtuale, ricorda Teixeira, un simile approccio nello storage sta trasformando velocemente le metriche economiche della virtualizzazione offrendo la velocità, la scalabilità e la disponibilità continua necessarie per sfruttare appieno i benefici dei datacenter definiti dal software.
Tra gli altri benefici particolari ci sono l’eliminazione dei colli di bottiglia nell’I/O dello storage dei datacenter virtualizzati; lo sfruttamento efficace delle risorse di storage per ottenere prestazioni applicative sempre maggiori; la garanzia di applicazioni veloci e sempre disponibili senza dover fare grandi investimenti in storage.
I rallentamenti delle prestazioni causati dai colli di bottiglia dell’I/O e i fermo-macchina provocati da malfunzionamenti legati allo storage sono due dei principali motivi per cui le imprese hanno evitato di virtualizzare le loro applicazioni di primo livello, come Sql Server, Oracle, Sap ed Exchange.
Eppure, efficaci piattaforme di virtualizzazione dello storage stanno superando con successo queste difficoltà.
Lo fanno utilizzando tecniche di caching adattativo e di aumento delle prestazioni indipendenti dai dispositivi che permettono di assorbire carichi di lavoro estremamente variabili, consentendo così alle applicazioni di girare più velocemente in modalità virtualizzata.
Per incrementare ulteriormente la reattività delle applicazioni di primo livello, le aziende spendono spesso troppo in dischi allo stato solido (Ssd) basati su memorie flash.
Anche in questo caso, però, efficaci piattaforme per la virtualizzazione dello storage sono oggi in grado di offrire una soluzione, grazie a funzionalità come l’auto-tiering, che ottimizza l’uso delle risorse più costose gestendole insieme a dischi fissi di maggiore capacità e minore costo.
Una piattaforma software di questo tipo tiene sotto costante controllo il comportamento dell’I/O ed è in grado di scegliere automaticamente in tempo reale e in modo intelligente cosa utilizzare tra memorie cache dei server, storage flash e tradizionali risorse basate su disco.
Questo garantisce che ogni carico di lavoro venga assegnato al dispositivo o al livello di storage più adatto in base alle priorità e all’urgenza.
La virtù del datacenter software defined
Il risultato è che oggi un datacenter definito dal software è in grado di offrire alle applicazioni più importanti livelli di prestazioni mai raggiunti prima, con un’efficienza ottimale nella gestione dei costi e con il massimo ritorno sugli investimenti già effettuati nello storage.
Una volta virtualizzate le applicazioni di primo livello che fanno un uso intensivo dell’I/O, la piattaforma di virtualizzazione dello storage ne garantisce la disponibilità. Lo fa eliminando gli anelli deboli e gli elementi non funzionanti tramite separazione fisica invisibile a livello applicativo che riguarda diversi locali o siti remoti e che grazie a complete funzionalità di auto-recovery garantisce i più elevati livelli di continuità operativa.
La giusta piattaforma può virtualizzare in modo efficace qualunque tipologia di storage venga utilizzata, sia collegata direttamente sia connessa via San, per ottenere un ambiente di storage robusto e reattivo in grado di supportare ambienti It virtuali altamente dinamici.
È così che per Teixeira le piattaforme di virtualizzazione dello storage hanno portato al momento decisivo per il datacenter definito dal software.
Le prestazioni, la velocità e l’elevata disponibilità necessarie ad applicazioni e database critici in ambiente virtualizzato oggi sono state raggiunte.
Le barriere sono state rimosse ed esiste un percorso chiaro e supportato per ottenere un’ancora maggiore efficienza nella gestione dei costi.
La scelta della piattaforma giusta per il data center è però fondamentale, così come è essenziale una tecnologia dalle funzionalità complete che sia già stata messa alla prova “sul campo”.
Inoltre, è importante anche puntare su una soluzione di virtualizzazione puramente software e indipendente, in modo da evitare di rimanere bloccati su una specifica piattaforma hardware e da trarre vantaggio dai futuri e inevitabili sviluppi dello storage.
- DataCore, lo storage definito dal software non si ferma
- Con DataCore Vds la virtualizzazione è sempre attiva
- Hypervisor: DataCore potenzia Sansymphony-V
- Sostiene Teixeira: flash e virtualizzazione muteranno i datacenter
- Red Hat, prima o poi lo storage sarà open
- Poltrona Frau: lo storage è parte attiva del business
- Hds mette il turbo allo storage
- Bluarancio: la dinamicità dello storage è cruciale per un service provider
- Datacenter in cerca di storage aperto e software-defined
- Gestazione delle prestazioni con rilevamento del percorso grazie al software HP Storage Essentials
- Funzioni integrate “sync e share” nella cloud storage 4.0 di Ctera
- Ibm: lo storage flash aiuta a migliorare le performance applicative
- Ibm: lo Unified Storage è cruciale anche per le Piccole e Medie Imprese
- Costi e prestazioni storage frenano la virtualizzazione delle applicazioni critiche
- SanSymphony-V: storage in business continuity per e-GlobalService
- Backup e storage convergono sui Big Data