Le evoluzioni tecnologiche e di business stanno definendo nuovi requisiti. Secondo Luca Marazzi, country manager di WD, i fattori chiave sono convergenza, standardizzazione, progettazione e disaster recovery. Con un unico obiettivo: superare i limiti di spazio.
Quello dello
storage è oggi uno dei settori tecnologici più dinamici e ricchi di
innovazione. “L’evoluzione in questo segmento
è tale da stare cambiando il modo di gestire, condividere e
accedere ai file, in sostanza di lavorare – sostiene Luca Marazzi, country manager di WD
-. Backup, server storage, cloud,
virtualizzazione sono solo alcune delle modalità che consentono alle aziende di
proteggere e salvaguardare dati cruciali, favorendo l’efficienza e rispondendo all’esigenza
sempre più marcata di gestire moli via via più considerevoli di dati di differente
natura”.
I
compiti assegnati agli ambienti storage sono sempre più diversificati e questo
ha causato una rilevante diversificazione nelle soluzioni, comportando un’integrazione sempre maggiore tra storage
e server: NAS per la condivisione di file, integrazione di server di
backup, accesso da remoto e iSCSI SAN (Block Storage) sono alcune delle
modalità di impiego e delle funzionalità richieste per rispondere a svariate
necessità aziendali. “Si tratta di
sistemi sempre più integrati, scalabili – afferma Marazzi -, che favoriscono l’efficienza e riducono al
minimo i tempi di progettazione, gestione e manutenzione del backup”.
Grazie alle sue caratteristiche, oggi il sistema
operativo più usato in ambiente storage è Windows. “A farlo preferire a Linux – puntualizza Marazzi – sono soprattutto la standardizzazione,
l’interoperabilità con migliaia di applicazioni (superiori rispetto a
qualsiasi altro OS) e la ripetibilità (grazie ai driver standardizzati e
ai pacchetti di installazione Microsoft). Dal canto suo, Linux è solitamente impiegato
come OS ‘fai-da-te’. Anche il supporto per Windows è standardizzato e offerto
in maniera diffusa da Microsoft, OEM, TechNet e attraverso una delle più ampie
community online”.
Oltre
alle sempre più spiccate differenze fra le soluzioni, va evidenziato anche che non tutti gli hard disk sono creati allo
stesso modo: la progettazione e le performance variano a seconda
dell’ambiente di lavoro a cui sono destinati. In tal senso, Marazzi cita come
esempio i prodotti di classe enterprise,
che sono sostituibili a caldo, permettono le configurazioni RAID (1 & 5), consentono
ridondanza Gigabit Ethernet e dual power.
Per
l’implementazione di un ambiente storage sono particolarmente rilevanti la
durabilità MTBF (Mean Time Between Failure), tra 800.000 – 1,4 milioni di ore,
il ciclo di lavoro (24 x 7 x 365), le funzionalità TLER (Time Limited Error
Recovery – che limita il ripristino a 7 secondi), e RAFF (Rotary Acceleration
Feed Forward). “I dischi destinati ai
computer desktop non sono consigliati per l’utilizzo in ambienti enterprise, su
un controller RAID – dice Marazzi -. Esistono
anche dischi intelligenti dotati di sensori e accelerometri per essere meglio adattati all’ambiente in cui
operano. Il risultato è un trasferimento dati costante e continuo e una maggiore
durata del disco stesso”.
Lo
spazio di archiviazione è costoso e limitato. Rispetto al 2013, per il 2014 si
stima una crescita dal 4,4 al 15,5%
delle esigenze di spazio, con un conseguente aumento dei costi. Lo spazio di
lavoro è critico e gli uffici non sempre consentono di disporre di una stanza
server dedicata. I nuovi sistemi sono composti da dispositivi ultracompatti a elevata densità storage. Inoltre, offrono scalabilità futura in grado di supportare una crescita costante e
sicura.
“La replica dei dati è cruciale –
conclude Marazzi -, soprattutto quando si
parla di dati sensibili e di informazioni dei clienti, perché i dati non si limitano ai soli server”.
I tempi di recovery possono variare a seconda della soluzione che si adotta:
che si tratti di servizi basati su cloud off-site, di co-localizzazione dei
dati (offerta ad esempio da Amazon, Carbonite, CloudMe, Google, KeepVault,
Microsoft, Mozy, Symantec e così via), o di replica delle informazioni che può
avvenire presso uffici remoti e succursali aziendali. Oltre a offrire una
maggiore sicurezza dei dati, la deduplica consente di aumentare l’ampiezza di
banda e massimizza “la finestra di backup”.