Importante dar loro virtualizzazione, ma anche capacità di gestire i servizi. La mappa del Roi cambierà quando ci saranno i Virtual datacenter operator. Ce lo spiega Luca Venturelli.
Dati interessanti quelli che snocciola il Direttore della Divisione Server & Tools di Microsoft, Luca Venturelli, per rispondere alla nostra domanda su quanti sono i datacenter in Italia.
«Sono circa mille – ci dice – e sono suddivisibili per dimensione e scopo. Secondo una nostra stima sono 30 quelli dei grandi service provider, outsourcer e centri servizi, 100 quelli dei grandi clienti, 500 quelli piccoli, con ownership mista fra aziende e service provider. A questi vanno aggiunte altre strutture, come i Ced di piccole dimensioni».
Quali e quanti ne vuole raggiungere Microsoft? E come?
La nostra offerta è varia e comprende dai quattro o cinque server per uso privato ai grandissimi datacenter da migliaia di server condivisi tra più clienti. Potenzialmente tutti sono raggiungibili dalla nostra offerta, direttamente da noi o dai nostri 12.000 partner e dagli altri 14.000 rivenditori sul territorio italiano.
Lavoro complesso?
La complessità non sta tanto nel numero di server ma nella varietà, criticità e dinamicità degli applicativi, della loro disponibilità richiesta e dall’impatto che hanno sul business del cliente. Ecco perché la nostra definizione di private cloud mette al centro le applicazioni e considera come risorse funzionali allo scopo applicativo la virtualizzazione, i server e le altre risorse It.
Quali competenze professionali, quindi, devono esserci nel datacenter per poter fare private cloud?
Le competenze sulla virtualizzazione sono importanti ma è fondamentale che vi siano competenze capaci di mappare i servizi richiesti dal business sulla tecnologia, incluse competenze di pricing e billing e, nel datacenter, competenze di It e service management che sono indispensabili per orchestrare le applicazioni che forniscono i servizi al business. Standard come Itil e Iso 20000-1 devono essere ben chiari al Cio che vuole costruire un modello di datacenter basato sul paradigma del private cloud.
Qual é la tecnologia o la soluzione di cui il responsabile del datacenter deve pensare a investire nel breve periodo?
Gli investimenti nel breve periodo dovrebbero essere rivolti alle soluzioni di gestione complessiva della infrastruttura It. Questo vuol dire pensare a tutto campo su alcune dimensioni di analisi come la gestione dei dispositivi fisici e virtuali in modo trasparente, la gestione completa e approfondita delle applicazioni, quella dellei diverse tecnologie di virtualizzazione, l’orchestrazione dei processi It basata su policy e il cloud ibrido. Molti nostri clienti, infatti, sono interessati a un mix di private e public cloud ma sono perplessi quando devono utilizzare troppi strumenti incompatibili tra loro per avere una visione complessiva di quali risorse It tengono in piedi l’azienda, in casa oppure nel public cloud. La nostra tecnologia risponde a questa esigenza e, per esempio, consente di vedere da una unica console il datacenter aziendale e le applicazioni o lo storage che il cliente ha in esecuzione sulla nostra piattaforma Windows Azure.
Si può abbinare al datacenter una misurazione di Roi?
In linea di principio il Roi di un datacenter segue una regola base di saturazione della capacità produttiva, quindi si parte da una misurazione come la rotazione del capitale investito nel data center che non è molto diversa da quella che si usa per misurare la produttività di un impianto industriale. Qui si lavora sulla efficienza e sull’utilizzo dell’infrastruttura.
Per massimizzare il Roi occorre lavorare sul valore dei servizi offerti e sul valore per il business; qui invece ci si focalizza sull’efficacia dei servizi offerti, sulla rapidità di risposta e sul time to market.
In futuro potremmo anche assistere a dinamiche molto diverse da quelle attuali. Da una parte grandi fornitori di capacità computazionale e storage grezza: mega datacenter che offrono grande disponibilità e copertura geografica, ossia i Global DataCenter Operator. Dall’altra, come è successo nella telefonia dove abbiamo gli operatori virtuali mobili, potremmo assistere a dei Virtual DataCenter Operator che si specializzano in segmenti di mercato, su esigenze applicative che loro conoscono bene e che potranno raggiungere anche senza un investimento ingente per costruire il loro data center ma affittandone una porzione da un Gdco oppure aggregando risorse di diversi Gdco per confezionare il loro prodotto.
- Emc: emergono le figure di domain e cloud architect
- Emerson: sfruttare l’effetto cascata della riduzione dei Watt
- Extreme: in Italia ci sono 3.000 datacenter
- Fujitsu: nel cloud c’è spazio per un demand manager
- Juniper: non esiste il cloud computing senza il cloud networking
- Amd: con l’architettura x86 il datacenter va sul sicuro
- Apc: la spesa energetica dell’It si può ridurre del 38%
- Arbor: il Roi di un datacenter è semplice da calcolare
- Avanade: il cloud come amalgama per la ricetta dei datacenter
- Bmc: virtualizzazione, automazione e self service per il datacenter
- Ca Technologies: non è mai troppo tardi per una governance vera
- Cisco: con il cloud privato risparmi di Tco fino al 32%
- Citrix: l’It manager che si fa aiutare arriva prima al cloud privato
- Compuware: il controllo delle applicazioni è pane del datacenter
- Dell: ci sono 4mila datacenter là fuori
- Easynet: senza reingegnerizzazione il cloud è a rischio
- Ibm: con la virtualizzazione sapiente si fa anche Bpm
- Microsoft – Suse: l’intesa continua
- Cloud privati: NetApp fa la strada con Microsoft e Cisco
- Sap-Microsoft, nozze cloud
- Microsoft: come sarà l’Erp nel cloud
[…] & Cloud Business Group Director di Microsoft Italia, ora in forza a Interxion – in una intervista a 01net dichiarò che i data center presenti sul territorio nazionale «Sono circa mille e sono […]