Ecco i cinque trend che influenzeranno l’universo dei sistemi analitici nel corso dei prossimi anni.
Il futuro è di quelle imprese che utilizzeranno gli analytics per i Big Data e sapranno usarli a proprio vantaggio per capire a fondo le informazioni che i dati possono fornire.
E quegli AD e CIO che saranno i più veloci ad adottare grandi soluzioni analitiche in un’architettura unificata renderanno le loro aziende le più competitive sul mercato.
Lo pensa Enrico Galimberti, Director Professional Service, Teradata Italia, che si avvale di uno studio dei Teradata Labs, per illustrarci i cinque trend che guideranno il mercato dei Big Data nei prossimi mesi.
Uno: la comparsa della piattaforma Big Data Discovery
La piattaforma Discovery diventerà indispensabile nella strategia dei Big Data. Fornisce a coloro che lavorano con le informazioni, inclusi gli analisti e i data scientist, un ambiente di lavoro affidabile da cui partire per esplorare ed eseguire esperimenti in scala sui big data ad una frazione del tempo e del costo necessari con gli approcci tradizionali.
Questa capacità ha tradizionalmente richiesto il campionamento diretto e la modellazione dei dati, oltre a competenze specialistiche.
Le piattaforme Discovery permettono alle aziende di essere innovative nel loro lavoro di analisi grazie alla possibilità di testare ipotesi e di “sbagliare in fretta” per scoprire nuove informazioni nascoste nei dati. Inoltre, la piattaforma Discovery “lascia parlare i dati:” questo dialogo tra i dati e coloro che lavorano con le informazioni consente all’azienda di individuare nuove tendenze che possono portare nuovi benefici come una profilazione più accurata dei consumatori o l’identificazione di frodi.
Una piattaforma Discovery deve supportare una varietà di interfacce, tra cui SQL, strumenti di business intelligence, statistiche e MapReduce di nuova generazione. A differenza dei sistemi tradizionali, una piattaforma Discovery ha bisogno di imporre pochissimi requisiti su come i dati vengono modellati, e in questo modo le aziende possono facilmente e rapidamente combinare dati esistenti e dati nuovi per accelerare il processo di esplorazione.
Due: la crescita esplosiva di applicazioni per Big Data
Il numero di applicazioni Big Data esploderà nei prossimi tre anni e questa crescita avrà inizio quest’anno.
Lo sviluppo di queste applicazioni sarà una sfida per i CIO, perché le competenze necessarie per sviluppare applicazioni Big Data sono diverse – e più sofisticate – che le competenze necessarie per sviluppare applicazioni tradizionali.
In futuro i Big Data saranno il pane quotidiano di coloro che lavorano con le informazioni e questa nuova generazione di applicazioni, tra cui web e mobile, sarà alimentata da insights sui Big Data in diversi settori. Ciò porterà un enorme vantaggio competitivo perchè permetterà di scoprire nuove opportunità per comunicare con i propri consumatori.
Tre: dalla frammentazione a un’architettura unificata
La varietà di nuove tecnologie Big Data e piattaforme tra cui scegliere sarà una benedizione ma al contempo anche una maledizione. A breve ci sarà chi installerà le nuove piattaforme Big Data in un ambiente IT che manca di un’architettura unificata e che non integra dati, metadati, sicurezza e amministrazione.
L’uso di soluzioni analitiche per i Big Data in un ambiente It frammentato può uccidere la promessa che i Big Data sono in grado di restituire un’analisi più approfondita su tutti i dati. Questo tipo di implementazioni porterà rapidamente ad un gran numero di fallimenti su progetti Big Data.
Ma non deve necessariamente essere così. Una più stretta integrazione delle tecnologie che supportano gli standard aziendali e sfruttano gli investimenti esistenti in strumenti analitici è essenziale per il successo delle iniziative sui Big Data.
La distribuzione di applicazioni in un ambiente aziendale unificato rende più semplice, più veloce e più potente l’analisi, e al contempo riduce i costi di installazione e i costi operativi, e la nuova capacità di analisi fornita dalle applicazioni può far fare all’azienda passi da gigante.
Quattro: la fusione delle capacità
Per essere competitive, le aziende devono possedere entrambe le capacità: analisi dei Big Data (MapReduce e analisi procedurali in scala) e analisi tradizionali (SQL), entrambe operanti all’interno di un sistema di gestione di database relazionali. Conseguenza di ciò, l’analisi dei Big Data non sostituirà neanche lontanamente nell’immediato futuro gli analytics tradizionali.
Discutere su quale dei due sistemi rimpiazzerà l’altro non porta da nessuna parte. I CIO e gli utenti aziendali cominceranno a fondere le capacità dei due sistemi per soddisfare le esigenze di business intelligence dell’azienda. Strumenti e tecnologie che offrono una nativa miscela di tecniche di analisi dei dati – classiche e nuove – garantiranno un vantaggio intrinseco perchè entro la fine del 2013 il mercato si renderà conto del loro valore.
Cinque: lo storage da solo non basta
I CIO guarderanno oltre il semplice hardware per l’archiviazione di grandi quantità diverse di dati, e si concentreranno sullo sviluppo di un processo analitico che abbia la caratteristica di essere ripetibile e che fornisca valore. I CIO poi smetteranno di acquistare soluzioni puntuali per passare alla messa in opera di piattaforme per i Big Data.
La più recente tecnologia, in grado di memorizzare e trasformare enormi volumi di dati diversi in intelligenza utilizzabile da tutta l’azienda, è stata testata sul campo e disponibile. Quei CIO, e con loro le loro aziende, che saranno i più veloci ad adottare le soluzioni di analisi dei Big Data saranno senza alcun dubbio i più competitivi.