Le caratteristiche da valutare per la scelta di una piattaforma di Business Intelligence. Fondamentale è ridurre il tempo di latenza.
La Bi operazionale è l’area dell’intelligenza diffusa che
sta trainando il mercato. Ha come scopo quello di ottimizzare il ciclo decisionale
tattico, che abbraccia orizzonti temporali molto brevi.
Ottimizzare il ciclo decisionale (ovvero il tempo che intercorre tra il verificarsi
di un certo evento che ha ripercussioni per il business e il momento in cui
si prende una decisione sulla base di questo accadimento) significa, in genere,
ridurre la sua durata temporale, ovvero controllare quella che è definita
la latenza di una soluzione di intelligenza diffusa.
La latenza, vero elemento fondamentale nella valutazione della bontà
di una piattaforma Bi, può essere intesa come il tempo intercorso fra
il momento in cui accade uno specifico evento e quello in cui un’azione concreta
relativa a quell’evento viene intrapresa. Tre sono i componeti chiave della
latenza:
- Latenza a livello dati: è il tempo richiesto per
raccogliere i dati grezzi, ripulirli e prepararli per l’analisi, oltre
che per immagazzinarli laddove potranno, in qualsiasi momento, essere richiamati
e utilizzati. - Latenza analitica: è l’intervallo che serve
per accedere e analizzare i dati, convertirli in informazioni strutturate,
applicare le regole di business o la gestione delle eccezioni e generare gli
allarmi del caso. L’analisi potrà essere condotta direttamente
da un’applicazione o da un utente. - Latenza decisionale: è il tempo speso per controllare
le analisi e gli allarmi, decidere quali azioni debbano essere intraprese
sulla base delle informazioni ottenute e agire.
Altro punto non trascurabile è l’integrazione dei dati di business
provenienti dalle fonti più disparate (vendite, ordini, clienti, fornitori,
prodotti o inventari), che incide sul processo di latenza migliorando l’accessibilità
delle applicazioni di Business intelligence da parte del suo utente.
La componente operazionale dell’intelligenza diffusa è pensata
per supportare gli utenti meno tecnici, tipicamente gli executive, che saranno
in grado di formulare domande semplici (del tipo: cosa succede ai margini se
cambio il mix di prodotto?) e di ottenere, in risposta, dati sintetici e grafici
che, immediatamente, forniscano una vista chiara del fenomeno analizzato.
L’acquisizione dei dati
Un sistema di acquisizione dati flessibile è il requisito principale
di un siffatto sistema: la Bi operazionale, infatti, fa uso dei record relativi
alle transazioni, accanto a una moltitudine di altre informazioni, strutturate
o meno, che provengono dall’interno o dall’esterno dell’organizzazione.
Per ottimizzare l’efficacia di questi strumenti, si renderà necessario
definire dei livelli di qualità cui i dati debbano sottostare.
Questo implica isolare chiaramente i processi d’integrazione e definire
regole e procedure di profilazione, validazione, riconciliazione, estrazione,
ripulitura, trasformazione, aggregazione e reimmissione dei dati. Se l’obiettivo
per l’azienda è quello di ridurre la latenza, ovviamente il tradizionale
aggiornamento in batch (tipicamente notturno) dei dati non potrà più
considerarsi sufficiente e dovrà, necessariamente, essere rimpiazzato
da un sistema di alimentazione semi-automatico.
In linea di principio sono tre, secondo Ventana Research, le metodologie usate
per uniformare i dati nelle applicazioni di Bi:
- Data consolidation: si tratta di un approccio di integrazione
“fisico”, che estrae i dati dalle diverse fonti e li fa confluire
all’interno di un repository. Il processo di consolidamento avviene
attraverso le operazioni di “ripulitura” (eliminando duplicazioni
e inconsistenze) o “riformattazione” (facendo in modo che i dati
siano espressi in grandezze tra loro confrontabili). Il repository fisico
potrà essere rappresentato da un data store operazionale (Ods), da
un data warehouse o da un data mart. La latenza dei dati immagazzinati nel
repository dipende da quanto spesso i processi di consolidamento sono eseguiti. - Data federation: questo approccio virtuale si realizza
lasciando fisicamente i dati immagazzinati presso le fonti che li hanno generati
e fornendo all’utente di Bi un accesso diretto agli stessi, creando
apposite “viste”. La latenza dei dati dipenderà dalle prestazioni
della fonte dati. - Data propagation: tale metodologia si realizza copiando
i dati da una o più fonte a uno o più sistemi target. La data
propagation è utilizzata, spesso, per copiare piccoli eventi o lievi
modifiche intervenute nei dati, attraverso dei sistemi che sono definiti Changed
data capture (Cdc). La propagazione potrà essere sia sincrona (se le
copie sono create nel momento stesso in cui avviene la modifica) sia asincrona,
se si decide che le modifiche saranno copiate sul sistema target a cadenze
temporali predefinite (ad esempio, ogni notte).