Quando si parla di Big Data si pensa subito alle metodologie evolute che permettono di estrarre valore dai dati, come nel caso dell’analitica comportamentale e predittiva.
L’analisi dei dati, infatti, richiede e alimenta, di pari passo, il continuo sviluppo di tecnologie quali intelligenza artificiale, machine learning e deep learning, grazie alle quali le organizzazioni possono adottare un approccio sempre più strutturato e qualificato all’analisi dei dati.
Nell’esperienza di Kingston Technology, questo legame fa emergere nuovi trend e bisogni anche in termini di storage.
Lo spiega Stefania Prando, Business Development Manager di Kingston Technology.
Di pari passo alla crescita esponenziale dei big data, viaggia infatti l’aumento dell’importanza del ruolo giocato da intelligenza artificiale e machine learning.
Per il 2021 si prevede che ogni persona genererà 1,7 megabyte in un solo secondo[1] – proviamo a immaginare i volumi che si raggiungono moltiplicando questo numero per un’intera azienda e per tutti i clienti presenti nel relativo database. Questo scenario implica la capacità di saper approfondire i dati e interpretarne il significato, specialmente quando si tratta di comprendere il comportamento umano.
IDC prevede che i dati digitali che creiamo e consumiamo passeranno dai 40 zettabyte del 2019 a ben 175 zettabyte nel 2025.
Entro il 2022, i ricavi annuali del mercato globale di big data e business analytics dovrebbero raggiungere 274,3 miliardi di dollari[2].
È indubbio che l’Intelligenza Artificiale e la crescita dei dati sono legati a doppio filo. Ed è altrettanto indubbio che il prossimo decennio sarà caratterizzato dai dati, il che significa che il fallimento o il successo delle organizzazioni dipenderà dal modo in cui riusciranno a sfruttare tecnologie come l’intelligenza artificiel per raccogliere, utilizzare e rendere democratica l’analisi dei dati.
L’esigenza di un’infrastruttura tecnologica a prova di futuro
Per adeguarsi a questo scenario, le aziende devono disporre di un’elaborazione dei dati di livello ed efficienza superiore, che non può prescindere da un’infrastruttura adatta allo scopo e a prova di futuro, spaziando dalle CPU/GPU più recenti alle memorie di nuova generazione. L’obiettivo è, ovviamente, migliorare ulteriormente la qualità dell’interpretazione dei dati e realizzare appieno il potenziale di queste tecnologie.
Le aziende che mirano a differenziarsi dalla concorrenza dovranno in primo luogo capire come gestire e archiviare correttamente i propri dati e, da lì, come utilizzare l’intelligenza artificiale e il machine learning per acquisire conoscenze al momento inaccessibili su clienti, concorrenti, fornitori, oltre a comportamenti di mercato capaci di incidere sulle loro performance.
A questo scopo, diviene essenziale disporre di SSD veloci e affidabili, come quelli proposti da Kingston Technology, capaci di sostenere il ritmo di crescita frenetico imposto dalle applicazioni sempre più sofisticate che approdano al mercato.
I settori in cui l’intelligenza artificiale sta avendo un maggiore impatto
Adottare un’infrastruttura tecnologica a prova di futuro è un requisito fondamentale per qualsiasi tipo di azienda, ma lo è ancora di più per le realtà che operano in settori in cui vi è un massiccio impiego dell’intelligenza artificiale. Noi di Kingston Technology ne abbiamo individuati alcuni.
Finance: in questo settore, l’utilizzo dell’intelligenza artificiale spazia dai test di ritorno del prezzo degli asset all’ottimizzazione del portafoglio, al trading ad alta frequenza. Gli istituti finanziari utilizzano l’Intelligenza Artificiale per analizzare i trend di mercato e gli algoritmi di autoapprendimento possono essere progettati, ad esempio, per ottimizzare la redditività in ogni nuova iterazione, come nel caso della valutazione delle richieste di mutuo.
Sanità: in questo settore, l’impatto riguarda principalmente la comprensione delle routine che si ripetono nel quotidiano, con la possibilità di anticipare le necessità in continua evoluzione dei pazienti. In alcuni casi, vengono impiegati a fini diagnostici anche i dati collezionati dai dispositivi wearable, sempre più diffusi. Alcuni studi dimostrano inoltre che l’IA può essere utilizzata per esaminare e refertare 30 volte più velocemente le mammografie, con una precisione del 99%, riducendo così enormemente la necessità di ricorrere a biopsie.
Trasporto merci: grazie a speciali sensori, i treni possono raccogliere dati da inviare poi ad applicazioni di machine learning. Le informazioni così raccolte, una volta analizzate, vengono usate per adottare decisioni in tempo reale su come ottimizzare le prestazioni e prevedere gli interventi di manutenzione.
Ad esempio, il vettore merci Deutsche Bahn Cargo ha già equipaggiato 250 locomotive con un software di gestione delle prestazioni che monitora ogni aspetto, dalle prestazioni dei freni alla temperatura del motore: nel progetto pilota, stando a quanto dichiarato, è stato possibile ridurre del 25% la frequenza di fermo delle locomotive.
[1] Techjury – https://techjury.net/blog/big-data-statistics/#gref
[2] Statista – https://www.statista.com/topics/1464/big-data/