Il futuro della memorizzazione sembra avviato verso la coesistenza di approcci diversi al mercato, tutti ugualmente validi perché rapportati alle molteplici esigenze delle aziende.
Il principio che accomuna le offerte di tutti i grossi nomi dello storage sembra essere, già da tempo, diventato quello della massima apertura. L’idea è quella di venire incontro alle differenti esigenze del cliente con approcci e tecnologie che siano il più possibile scalabili, aperte e flessibili. E se lapertura misura la capacità dei sistemi di adattarsi ad ambienti operativi diversi, va detto che quasi tutto lhardware oggi in commercio supporta in modo nativo quantomeno i più diffusi Os come Windows, Linux, NetWare e le varie declinazioni di Unix. La scalabilità, per contro, può essere misurata dalla facilità ed economicità di ampliamento dei sistemi, in termini di capacità di storage. Sotto questo profilo, la soluzione migliore sembrerebbe, ancora oggi, quella dei dispositivi Nas (Network attached storage).
Economicità e facilità duso
Con una manciata di milioni e, soprattutto, senza dover investire in formazione di personale altamente qualificato, è possibile in pochi minuti aggiungere capacità di memorizzazione alla propria rete. Se lutilizzo di questi server dedicati alla gestione dello storage (file server) è rimasto a lungo associato alle applicazioni considerate non critiche e allaccesso a dati destrutturati (non organizzati in database ma "sparsi" tra le varie applicazioni aziendali), è pur sempre vero che oggi la facilità di installazione e utilizzo di questi dispositivi, i sensibili miglioramenti delle tecnologie e lavvento del protocollo di trasporto Gigabit Ethernet li hanno resi una soluzione adattabile anche agli ambienti critici dei service provider. Ma questi apparati, delle vere e proprie appliance dotate di sistema operativo, che si collegano alle Lan aziendali attraverso canali Ethernet non vanno sottovalutati. Lelevata scalabilità che li contraddistingue li pone, spesso, sullo stesso livello delle soluzioni considerate di fascia più alta, che caratterizzano linfrastruttura San (Storage area network). Sono, infatti, disponibili apparati con capacità estremamente variabili che, in configurazioni rack o cluster, arrivano a gestire anche vari Tb di dati immagazzinati.
La gestione dei dati critici
I più costosi array, le grandi librerie a nastri e le soluzioni Sas (Server attached storage) risultano, per contro, la scelta ancora oggi privilegiata dalle grandi aziende per garantirsi la disponibilità continua di applicazioni critiche. Grazie alle elevate performance (soprattutto nellottica della fault tolerance) e ai collegamenti in fibra, infatti, le San risultano particolarmente utili per laccesso condiviso ad applicazioni.
Sarà possibile, in questi contesti, attivare delle richieste simultanee e condividere, nello stesso momento, laccesso a un medesimo file. Va da sé, quindi, che un approccio di questo tipo risulti particolarmente indicato per applicazioni che rimandano al mondo Web, ovvero al media streaming, al publishing e alla consultazione di pagine Web, oppure allaccesso ai database aziendali. Non stupisce, quindi, che anche società come Teradata, che gravitano nellorbita del data warehousing, abbiano sviluppato una propria offerta storage autonoma, ovvero hardware e software che vengono proposti a complemento dellofferta primaria. Le architetture San sono generalmente costituite da file server (singoli dischi o array di dischi) che, collegati alle reti aziendali esistenti attraverso canali a banda larga (Fibre Channel), permettono laccesso e il rilascio ai client di unampia quantità di dati. Entrambi gli approcci sin qui valutati possono, però, coesistere. Nulla vieta, infatti, di appoggiare dispositivi Nas a una San, per migliorare la protezione di dati considerati "critici" aggiungendo capacità con investimenti piuttosto contenuti. E proprio la commistione delle due architetture risulta evidente da uno sguardo rapido allofferta. Molti grossi nomi del mercato, infatti, hanno negli ultimi tempi rilasciato soluzioni altamente versatili, che si adattano perfettamente alluno o laltro approccio.
Tra i vari esempi, gli Emc Clariion 4700, disponibili nelle due versioni Fc e Ip indirizzate, rispettivamente, a contesti San e Nas. Lhardware storage è, oggi, altamente modulare, tuttavia, la vera personalizzazione dellofferta si realizza con il contributo fondamentale della componente software.
La componente soft prende piede
Se è vero che il business della memorizzazione è tra i meno toccati dallattuale congiuntura, è altrettanto vero che non ci si può fermare a unanalisi superficiale. Il mercato dello storage cresce, ma si tratta di una crescita a due velocità.
A fronte di budget It sostanzialmente invariati (se non addirittura ridotti) e di volumi di dati crescenti, è probabile che le aziende tendano, nei prossimi mesi, ad abbandonare gli investimenti caratterizzati da un ritorno sugli investimenti (Roi) diluito nel tempo. Privilegeranno, per contro, le spese che danno garanzie di benefici immediati.
La congiuntura spinge verso l’efficienza. Visto che le aziende in questo periodo di ristrettezze sembrano poco inclini ad affrontare progetti complessi, che avranno ricadute a media scadenza, risulta molto più agevole coinvolgerle nellacquisto di soluzioni di storage management, che migliorano le performance dellinfrastruttura esistente con costi contenuti e benefici pressoché immediati.
Le previsioni di Idc
La testimonianza dellimportanza della componente soft in un segmento tradizionalmente più sbilanciato verso lhardware è sotto gli occhi di tutti.
Ibm ha di recente inaugurato un nuovo gruppo interamente focalizzato sullo sviluppo di software per i sistemi storage e anche Microsoft, nelle ultime settimane, ha dimostrato di essere interessata ad allargare il proprio business ai tool di gestione della memorizzazione e al backup. A conferma di queste tendenze, Idc stima, ad esempio, che sul mercato italiano dello storage, lhardware avrà, nel corso dei prossimi due anni (fine 2004) un andamento positivo, ma con previsioni di crescita molto contenute (comprese tra unipotesi pessimistica dello 0,6% e una più ottimistica del 3/4%). A fare la parte del leone saranno, invece, software e servizi che, nelle previsioni della società di ricerca, cresceranno in Italia rispettivamente dell11,5% e del 10,7% nel prossimo biennio.
I tool di virtualizzazione, che consentono di ottimizzare la gestione delle risorse hardware, stanno ottenendo crescenti consensi. Accanto a questa componente e, soprattutto, alla luce degli eventi dell11 settembre, prendono sempre più piede anche i sofware pensati per garantire la continuità delle attività aziendali (business continuity), il backup e il rapido ripristino dati. Questi tool sono offerti come soluzioni a se stanti ma, sempre più spesso, inseriti allinterno di framework di gestione delle infrastrutture It aziendali.