Non si tratta di gestire solo grandi volumi di dati, ma anche (e soprattutto) la complessità delle informazioni.
Tecnicamente parlando i "Big data" sono dei data set – insiemi di dati strutturati – che assumono una dimensione rilevante in termini di storage.
Questa dimensione (da qualche TB a diversi petabyte per singolo data set, non è ancora chiaro quando si comincia a parlare di Big Data) rende difficile se non impossibile una gestione tramite i classici database relazionali e richiede una potenza di calcolo parallelo e massivo con tool dedicati di database management.
I Big data sono da qualche tempo sulla bocca di molti fornitori vista la quantità di informazioni prodotte quotidianamente (secondo alcuni stime ogni 2 giorni vengono prodotti 5 exabyte di dati; in altre parole il 90% di tutte le informazioni oggi disponibili sono state prodotte negli ultimi 2 anni).
E come spesso accade nel mondo dell’IT, molti saltano sul carro di Big data vedendo nell’esplosione delle informazioni un terreno per coltivare nuovi business.
La proposizione dei vendor è però spesso legata al concetto di “volume”: i Big data vengono descritti come un immenso “volume” di informazioni che le organizzazioni devono imparare a gestire (possibilmente usando le soluzioni proposte da ogni singolo vendor).
Ma questo è solo un tassello (seppur importante) del puzzle. I Big data hanno a che fare sì con il volume, ma anche con la “complessità”, con la “varietà”, con la “velocità”.
La difficoltà di gestire i Big data è certo la quantità, ma soprattutto il fatto che questi informazioni sono molteplici, eterogenee, differenziate, destrutturate.
I Big data, pur rappresentando un problema di non facile soluzione per i CIO, rappresentano anche un’opportunità, soprattutto per quelle figure più illuminate che vogliono scandagliare in profondità il reale valore delle informazioni per le imprese.