Database e Business intelligence evolvono nel mondo dei social network, dei sensori e più in generale dei dati poco strutturati. Ma bisogna spiegarlo alle aziende.
Parlare di business intelligence oggi, con i cosiddetti big data di mezzo, è particolarmente attuale e stimolante. Elaborare in tempo quasi reale informazioni che non si conoscono bene, dagli scontrini dell’ultimo quarto d’ora ai tweet sul brand, dallo stato dei parcheggi al flusso automobilistico sulle strade che portano al supermercato apre nuovi approcci al business, specie se poi è possibile incrociare i dati con quelli classici.
Per parlarne abbiamo approfittato della tappa romana del Big Data and Extreme Analytics Event organizzato da Oracle con il supporto di Intel.
Nell’occasione abbiamo potuto approfondire alcuni aspetti con William Hardie, Vp Database Product Marketing della corporation, e Flavio Venturini, Senior Sales Director dell’area Business intelligence italiana.
Dati classici e dati innovativi devono forzatamente coesistere
In estrema sintesi, i dati destrutturati vengono acquisiti in database NoSql, tracciati con Hdfs (il file system distribuito Apache Hadoop) e sagomati con soluzioni di tipo MapReduce che seguono le regole di business.
Il risultato di queste operazioni viene inserito nel database relazionale per svolgere correlazioni con i classici dati aziendali.
“Operare in ambito Hadoop e MapReduce richiede esperti difficili da reperire e quindi costosi – spiega Hardie – ma grazie ai tool Oracle la Data Integration può essere affidata a consulenti specializzati ma di più facile reperibilità” e quindi di minor costo.
“La sfida culturale di oggi è far capire alle grandi aziende che i dati esterni all’azienda sono importanti quanto quelli interni, se non di più”, esordisce Venturini.
Parlando di sfide, alcune vengono sottovalutate. “Vanno bene le tre V che secondo Gartner devono guidare l’It, ovvero volume, varietà e velocità, ma manca la quarta, ovvero vulnerabilità”, sottolinea con ottima sintesi il manager italiano.
Il riferimento è alla sicurezza, spesso sottovalutata ma non da Oracle. Un esempio?
«Abbiamo integrato R (l’ambiente statistico di grande successo, ndr) nel database, rendendolo uno strumento enterprise sicuro e scalabile. Inoltre – ammicca Venturini – le innovazioni come Exalytics, il sistema ingegnerizzato per le analisi, sono un plus sul mercato».
L’approccio Hadoop, basato su distribuzione e manager di Cloudera, si sposa con i Big Data Connectors di Oracle.
Al termine della catena di elaborazione troviamo Exalytics In-Memory Machine, un sistema dedicato alla business intelligence ed ingegnerizzazto per il supporto decisionale, il forecasting, Olap (On-line analytical processing) e la pianificazione in memory, di recente introduzione sul mercato.
Per meglio seguire la propria clientela, Oracle ha un approccio diretto al Saas e al Paas, mentre sullo Iaas sta lavorando con i suoi partner per rendere più semplice anche la gestione dell’hardware specifico. L’obiettivo è di migliorare l’attività dei clienti, perché anche dalle informazioni di nuovo tipo si può estrarre valore. Basta capirlo.
- Venti giapponesi: big data da vivere in tempo reale
- Fare digital marketing al tempo dei big data
- Decidere che fare dei big data con Db2 10
- I big data danno Lustre ai datacenter
- Un big data Index traccia la domanda di tool
- I big data creeranno un mondo senza carta?
- Jaguar Land Rover, la simulazione al tempo dei big data
- Dietro ai big data ci deve essere un datacenter
- Oracle abbassa il costo dei big data
- Data scientist: quando i big data fanno nascere una nuova professione It
- I big data e l’ago nel pagliaio: NetApp punta su Hadoop
- Sas: pensare in grande con grandi analytics
- I big data si governano con l’efficientamento storage
- Come si trattano i Big data