Nel 2016 i container entreranno in azienda.
A sostenerlo è John Roese, Senior Vice President e Chief Technology Officer di EMC, secondo cui i container una volta appannaggio di società come Facebook e Netflix si stanno posizionando come modello agile ed efficace su cui basare la prossima generazione di applicazioni.
Da qui la prima delle Prediction a opera del Cto di EMC che, per il 2016 alle porte, sottolinea la necessità per le aziende di rendere i dati costantemente disponibili e recuperabili costruendo adeguate soluzioni di storage utilizzando i protocolli esistenti e nuovi protocolli che sfruttino le specificità del container.
Un’ulteriore sarà, poi, rappresentata, sempre secondo Roese, dalla necessità di rendere i dati rispondenti a requisiti di sicurezza e di governance ri-progettando i container affinché siano dotati, sin dal principio, di funzionalità di sicurezza enterprise-grade comprensive di concetti come audit, trust, validation, nonché firewall.
In un siffatto scenario, i concetti di Big data e Real-Time Analytic andranno di pari passo, tanto che a emergere, nel corso del 2016, saranno due modelli.
Il primo “tradizionale”, con grandi volumi di dati, non analizzati in real time. Il secondo con dati relativamente grandi, ma analizzati in real time grazie alle tecnologie di in-memory analytic.
Qui, secondo il Cto di EMC, tecnologie come DSSD, Apache Spark e GemFire diverranno importanti come Hadoop, mentre si farà strada un modo molto interessante di utilizzo dei Data Lake, con analisi on-the-fly in grado, ad esempio, di influenzare gli eventi in real time per un livello di controllo e agilità senza precedenti.
Tuttavia, suggerisce Roese, perché si avveri quanto promesso dalle in-memory analytic devono accadere due cose.
La prima è che le tecnologie sottostanti siano in grado di garantire abbastanza memoria e spazio per ospitare grandi volumi di dati, senza dimenticare la possibilità di muovere efficacemente il dato tra gli storage a oggetti e le architetture in-memory.
Queste due tecnologie, object e in-memory, lavorano su valori di performance completamente differenti e i team It dovranno operare in modo che il dato sia immagazzinato nel giusto livello di performance richiesto e che sia eventualmente possibile movimentarlo successivamente in maniera efficace. Molto, ricorda il manager, si sta facendo nel campo dei nuovi object store, architetture storage flash su rack-scale e sulle tecnologie che permettono a questi due elementi di lavorare insieme. In questo quadro, le tecnologie open source potranno sicuramente giocare un ruolo importante.
In secondo luogo gli ambienti in-memory su larga scala richiedono che il dato abbia caratteristiche di persistenza e contemporaneamente di dinamicità.
Qui il problema è che se alcuni dati vengono resi persistenti solo “in-memory”, eventuali errori potranno persistere.
Di conseguenza, nel 2016, vedremo il lancio di servizi storage specifici per l’ambiente in-memory, che comprenderanno funzionalità di deduplica, snapshot, tiering, caching e replica, oltre alla capacità di comprendere dove risiede e qual è il dato corretto o più recente.
Tutto ciò sarà fondamentale affinché si possa passare all’analisi dei dati real-time e per rendere queste tecnologie commercializzabili sin dal 2016.
Nei prossimi dodici mesi, inoltre, le aziende avranno un approccio più maturo ai servizi cloud grazie a una maggiore comprensione delle potenzialità di queste tecnologie.
L’evoluzione delle strategie cloud verso un modello “Right Cloud For The Right Workload” si concretizzerà soprattutto dove l’It saprà utilizzare diversi servizi cloud a seconda dell’applicazione e dei carichi di lavoro.
Fino a oggi, infatti, ricorda Roese, in un eccesso di semplificazione si è cercato di utilizzare un unico servizio cloud per soddisfare necessità anche differenti tra loro. In futuro, si verranno invece a delineare quattro tipi di servizi cloud tra i quali l’It potrà scegliere: due inerenti la “seconda piattaforma” on-premise e hybridized off-premise, e due interamente realizzati sulla “terza piattaforma” on-premise e off-premise.
In questo scenario, è altamente probabile che le imprese saranno costrette ad adottare una strategia cloud che tocchi tutti e quattro i diversi tipi di servizi elencati e, se non avranno un piano definito per ciascuna di queste tipologie, potrebbero avere dei problemi in termini economici, di efficienza e compliance. In ogni caso, ricorda ancora Roese, qualsiasi sia la strategia cloud che vorranno adottare, l’importante sarà accedere ai dati in modo trasparente e sicuro, magari attraverso l’uso di tecnologie come gateway cloud, astrazioni cloud, software defined data replication e servizi di crittografia avanzata dei dati.
Infine, sempre per il 2016, il Cto di EMC stima che lo sviluppo di applicazioni cloud native, che richiede competenze specifiche che spesso non sono presenti nei team di lavoro It, sarà una funzionalità premium.
Si dovrà, dunque, puntare sullo sviluppo di competenze interne in grado di utilizzare gli strumenti messi a disposizione dal cloud, o in alternativa, scegliere partner affidabili in grado di saperlo fare.
Un monito valido, più che mai, ad attrezzarsi per affrontare gli scenari peggiori, come quello secondo cui flash scalerà e le imprese dovranno farsi trovare pronte per gestire al meglio la complessità.