Qlik dice che ora siamo nell’era dell’alfabetizzazione dei dati e evidenzia i trend che riguarderanno gli analytics e che ci porteranno fino all’intelligenza aumentata.
Alfabetizzazione dei dati
Analytics vuol dire leggere, utilizzare, analizzare e discutere i dati sta diventando sempre più importante. Gartner prevede che “entro il 2020, l’80% delle aziende inizierà a considerare lo sviluppo delle competenze nel campo dell’alfabetizzazione dei dati”. Per iniziare questo cambiamento, le principali aziende di software cominceranno a offrire programmi di questo tipo nel 2018, e le organizzazioni che ne faranno buon uso riusciranno ad adottare un approccio strutturato alla crescita dell’alfabetizzazione dei dati.
Multi-cloud ibrido
Il rapido aumento dei servizi cloud supererà le aspettative anche dei leader in ambito IT. Nel 2018, tuttavia, alcuni dati dovranno essere rimossi dal cloud per motivi di regolamentazione, sicurezza, costi e prestazioni, determinando così la frammentazione dei dati e dei domini applicativi. Questo significa che gli analytics in grado di gestire ambienti multi-cloud, multi-piattaforma e ibridi diventeranno sempre più indispensabili.
I dati stanno aumentando
C’è un crescente numero di casi di utilizzo (IoT, dispositivi mobili offline e analitiche immersive) in cui risulta più vantaggioso per le organizzazioni gestire i carichi di lavoro localmente anziché centralmente. Il nuovo anno vedrà un incredibile aumento di carichi di lavoro eseguiti direttamente su un’ampia gamma di dispositivi: entro il 2019, almeno il 40% dei dati creati con l’IoT saranno archiviati, processati, analizzati e usati in prossimità o al limite del network, mentre entro il 2022, il 75% dei dati generati dalle imprese saranno creati ed elaborati al di fuori del tradizionale centro dati o del cloud, con un incremento rispetto al 10% generato attualmente..
Big Data, data discovery e scienza dei dati
Fino a poco tempo fa queste tre aree erano ben separate, dato che i relativi utenti si avvalgono di strumenti e competenze differenti. Ma oggi, i promettenti progressi fatti nel campo dell’intelligenza artificiale, dell’indicizzazione dei Big Data e dell’integrazione engine-to-engine, stanno creando nuove opportunità di integrazione, consentendo agli utenti di esplorare a fondo dati di grandi dimensioni, complessi e variegati.
Cataloghi nuova frontiera del self-service
Essere alfabetizzati sui dati significa saperli analizzare, leggere, utilizzare e discuterne. Ecco perché negli ultimi anni la tendenza è stata quella prepararsi i dati in modalità self-service, in un modo visivamente più efficace. Nel 2017 abbiamo visto emergere la stessa tendenza self-service riguardo i cataloghi di dati. Questi sono ancora largamente usati dagli esperti, applicati per lo più ai “data lake”. Nel 2018, le nuove modalità di catalogazione dei dati saranno maggiormente integrate con l’esperienza acquisita di preparazione e analisi. Ciò consentirà di rivolgersi a un pubblico più ampio, in grado di combinare facilmente dati aziendali controllati, data lake e dati as-a-service esterni.
Accento sulle API
L’incremento della distribuzione di dati, elaborazione e utilizzo degli stessi va di pari passo con l’ampliamento degli ambienti tecnologici delle imprese. Le aziende non sono più alla ricerca di soluzioni end-to-end e stack singoli ma di soluzioni componibili. Ciò significa che le piattaforme analitiche in questo nuovo ambiente devono essere aperte e interoperabili, con estensibilità, integrabilità e API moderne. Questa interoperabilità sposterà l’analisi da una destinazione all’altra per diventare più integrata nei workflow, sfocando la linea di confine tra le applicazioni di BI così come le conosciamo oggi e le app basate sui dati che alimentano l’economia analitica.
Blockchain guiderà le applicazioni sperimentali
Stanno emergendo nuove tecniche di elaborazione, gestione e integrazione di dati distribuiti che renderanno la posizione dei dati un fattore sempre più marginale nelle strategie di informazione. Ciò significa che le idee possono essere ispirate dalle tecnologie blockchain e peer-to-peer. Mentre questa fase è ancora agli inizi, nel 2018 l’innovazione si sposterà oltre le criptovalute fino alle applicazioni sperimentali per l’analisi e la gestione dei dati. All’inizio, la connettività al registro della blockchain avrà dei vantaggi. Ma alla fine, il valore potrebbe risiedere nella capacità di verificare la provenienza e l’autenticità dei dati utilizzando la tecnologia blockchain.
Analisi colloquiale
L’uso dell’analisi è stato tradizionalmente incentrato su list box e/o visualizzazioni di dashboard in stile drag-and-drop. Anche se questi utilizzi continuano a essere di valore, esistono ora più approcci disponibili per “l’analisi colloquiale” che semplificano l’analisi, i risultati di ricerca e lo storytelling dei dati, in modo da permettere agli utenti di raggiungere più facilmente un punto dati fondamentale. Questo può includere tecniche come query, elaborazione e generazione in linguaggio naturale potenziate da ricerca e voce. Questa tecnologia, supportata da assistenti virtuali e chatbot attraverso l’integrazione delle API fornisce nuovi strumenti di interazione.
Reportistica contestualizzata
Non tutti avranno la capacità o il tempo per esplorare i propri dati in dettaglio ogni volta, ma ci saranno utenti con diversi livelli di competenze. Ciò significa che nel 2018 si inizierà a ridefinire la reportistica fornendo sia a analisti che agli altri utenti informazioni altamente contestualizzate, invertendo le analitiche che conosciamo oggi. Invece di doversi recare in un luogo per condurre un’analisi, sarà l’analisi a raggiungere gli utenti, direttamente integrata nel loro spazio di lavoro, fornendo le informazioni giuste alle persone giuste, al momento giusto, nel posto giusto e nel contesto giusto. Questo processo, inoltre, prevede che sempre più persone saranno in grado di raggiungere la propria indipendenza nell’analisi dei dati.
Analisi immersiva
Dal momento che i dispositivi di realtà virtuale sono un po’ troppo costosi per un’adozione mainstream, siamo ancora lontani dalla realtà aumentata. Probabilmente la svolta avverrà all’interno di casi di utilizzo aziendali, in cui l’analisi ricoprirà un ruolo importante. Le esperienze immersive possono comunque assumere altri formati, in cui l’utente viene coinvolto da un punto di vista sensoriale e sociale. Grazie a migliori interfacce utente, a display su larga scala in situation room digitali, a un migliore storytelling con dati e funzionalità collaborative, sempre più persone saranno attratte dall’utilizzo delle analitiche.
Intelligenza aumentata
A partire dal 2018 in poi, la combinazione di tecnologie di Augmented Intelligence (agenti intelligenti, bot e attività automatizzate) e di tradizionali strumenti di analisi (set di dati, visualizzazioni, dashboard e report) renderà i dati più utili. Ma questo da solo non sarà sufficiente. Un sistema in cui intelligenza artificiale e essere umani convivono nello stesso ecosistema, con reciproco scambio e apprendimento tra le due parti, è detto intelligenza aumentata. In questo contensto, Governance, sicurezza e qualità dei dati sono più importanti. Per prosperare nell’economia delle analitiche è necessario l’impiego di una piattaforma veramente aperta, con un ecosistema in grado di sfruttare le ultime tendenze, tecnologie e metodologie emergenti, riunendo dati, persone e idee. Questo porterà a un maggior numero di utenti con competenze di Data Literacy, innovazioni e intelligenza aumentata basati sui dati, contribuendo a integrare con successo i dati nella vita quotidiana.