Matt Foley, Director of EMEA Field Application Engineering, AMD, spiega come i CIO possono sviluppare una strategia efficace per investire nelle applicazioni di intelligenza artificiale.
Dopo anni che se ne parlava nel background, l’intelligenza artificiale si è finalmente imposta all’ordine del giorno nel dibattito pubblico. Le possibilità offerte da servizi come ChatGPT e DALL·E hanno suscitato l’interesse generale. Tuttavia, le opportunità offerte dall’intelligenza artificiale sono molto più ampie e non si limitano alla redazione di temi scolastici o ai risultati sconvolgenti dell’elaborazione grafica.
Questa tecnologia può avere un impatto significativo sull’industria grazie ai nuovi strumenti messi a disposizione delle imprese come la computer vision, l’elaborazione del linguaggio naturale e i sistemi di product recommendation.
Oggi i CIO si trovano di fronte a una decisione importante: quale approccio garantisce i risultati migliori nello sviluppo in-house delle applicazioni basate su IA?
Il suo ventaglio di applicazioni è molto ampio. Nel settore automotive, la visione artificiale (Computer Vision) può essere impiegata nei sistemi di sicurezza automatizzati che riconoscono i pedoni sulla strada. L’elaborazione del linguaggio naturale (Natural Language Processing) può semplificare i comandi vocali in abitacolo. Nella produzione industriale, la visione artificiale può monitorare la qualità e individuare tempestivamente le esigenze di manutenzione. Nella vendita al dettaglio, sarà possibile semplificare il check-out mediante il riconoscimento automatico dei prodotti e dei clienti. Nei servizi finanziari sarà possibile rilevare le anomalie nelle transazioni per contrastare le frodi. Le aziende del settore sanitario possono migliorare la rapidità e l’accuratezza delle diagnosi. Le imprese di qualsiasi settore, infine, possono aumentare la qualità e la ricchezza della ricerca aziendale, facilitando la reperibilità dei dati interni.
Il ciclo di vita dell’apprendimento automatico (Machine Learning) si articola in due fasi principali: il training e l’inferenza. Nella fase di formazione si acquisiscono quantità enormi di dati, ricorrendo all’intelligenza artificiale per riconoscerne gli andamenti e creare dei modelli. Per fare ciò sono necessari data center ad alte prestazioni, dotati di server con CPU all’avanguardia come AMD EPYC di quarta generazione e acceleratori dedicati come AMD Instinct.
La fase di inferenza consiste nell’applicazione del modello a dati del mondo reale per generare un risultato utilizzabile. In termini di hardware, si può fare ricorso alle risorse già usate in fase di training, oppure si può optare per dispositivi integrati system-on-chip (SoC) come AMD Versal e Zynq.
Per essere efficaci, le applicazioni basate su IA necessitano di modelli completi ed elaborati a partire da un’ampia e variegata quantità di dati. A ogni modo, pur se gli strumenti precostituiti hanno compiuto notevoli progressi nella creazione di modelli “addestrati” a partire da dati esterni pubblici o acquisiti sul mercato, i dati più preziosi per un’organizzazione si trovano proprio all’interno delle sue mura. Ciò richiederà uno sviluppo interno, in cui sarà essenziale implementare l’ecosistema hardware e software più conveniente.
Un’applicazione basata su IA può fornire spunti più accurati ed efficaci se i suoi modelli sono personalizzati in base ai dati aziendali. In questo modo si otterranno risultati più mirati alle esigenze specifiche dell’organizzazione. Tuttavia, man mano che l’IA si diffonderà su larga scala, è probabile che i risultati migliori saranno offerti da una combinazione di approcci basati su soluzioni Software-as-a-Service (SaaS) pubbliche ed applicazioni sviluppate in-house.
In quest’ambito è essenziale garantire l’accessibilità tra gli stack utilizzati per il training e l’inferenza. AMD Unified Inference Frontend (UIF) offre un percorso unificato verso i framework di IA standard del settore come, tra gli altri, Tensor Flow, PyTorch, WinML e Open Neural Network Exchange (ONNX). Questi, a loro volta, possono essere integrati senza soluzione di continuità con AMD EPYC CPU stack, uno stack di GPU AMD Instinct basato su software ROCm o la piattaforma AI Vitis per uno stack integrato con SoC adattivi AMD Versal o Zynq.
Quando i CIO elaborano una strategia per investire nelle app di IA, devono accertarsi di ottimizzare le spese per ottenere un ritorno soddisfacente. I miglioramenti dell’efficienza dei processi, della produttività e della resilienza dell’infrastruttura informatica sono fondamentali per quantificare i benefici. I CIO devono scegliere l’architettura migliore per la loro soluzione, valutandone la rapidità di implementazione. Questo è il motivo dell’importanza di una vasta scelta di stack per l’IA.
In aggiunta, i CIO dovranno condurre una valutazione dell’impatto lungo l’intero ciclo di vita dell’applicazione per garantire che sia gestita in modo sicuro, innovativo e responsabile, senza perdere di vista la conformità alle normative sulla privacy e ai framework di cybersecurity come NIST. Questo perché, con tutta probabilità, i modelli di intelligenza artificiale saranno elaborati a partire da dati sensibili, proprietari o di entrambi i tipi, alla cui riservatezza devono essere garantite tutte le tutele della proprietà intellettuale. Tutti questi fattori, considerandone i costi, impongono ai CIO di investire in quelle aree in cui i benefici sono evidenti, duraturi e capaci di incidere positivamente sulla produttività.
Tuttavia, gli algoritmi alla base dei modelli di IA presentano esigenze non indifferenti in termini di tempi e di costi. Dipendono dalla disponibilità di set di dati sempre più vasti e dall’intervento degli “AI Architect” in grado di gestire un’ampia gamma di casi d’uso. Questo è un altro motivo per cui è necessario disporre di una piattaforma unificata. Le dimensioni dei parametri per i modelli sono aumentate da poche migliaia a centinaia di miliardi in soli dieci anni, con un aumento esponenziale e impressionante della quantità. Il training di un modello che ricorre a uno spettro così ampio di parametri richiede una quantità sufficientemente grande di dati e una governance altrettanto rigorosa. È anche fondamentale tutelarsi dai data bias che potrebbero falsare i risultati. Questo aspetto è una criticità onnipresente alle implementazioni generiche dell’IA che ricorrono a set di dati pubblici. Correggere questa distorsione richiede sforzi e attenzioni notevoli. In altre parole, il training di un modello costa tempo e denaro.
I key decision-maker nella determinazione di una strategia di investimento nelle applicazioni aziendali basate sull’intelligenza artificiale saranno gli executive team. Devono valutare quando è necessario ricorrere all’IA, individuare e classificare i casi d’uso, categorizzare i livelli di rischio e quindi valutare la maturità effettiva delle soluzioni di IA esistenti sulla base delle proprie esigenze. Se queste sono ben consolidate e ricche di funzionalità, la necessità di creare da zero applicazioni intelligenza artificiale interne e personalizzate verrebbe meno. In entrambi i casi, una piattaforma esistente flessibile come AMD UIF e librerie ottimizzate come AMD ZenDNN e il ROCm HIP compiler sono in grado di offrire l’agilità necessaria, garantendo così il ritorno dell’investimento grazie alla combinazione dei vantaggi di un codice ben collaudato con una personalizzazione specifica per l’azienda e con la piattaforma giusta.
L’IA è ancora in fase di “early adoption” e ha già subito oscillazioni notevoli di popolarità. Ma l’intelligenza artificiale di oggi ha le carte in regola per avviare un ciclo alimentato da modelli estremamente grandi e set di dati molto vasti. Questa fase di “big data” per le soluzioni basate sull’IA, che si tratti di app sviluppate internamente o di framework applicativi forniti da terzi, al momento sta facendo registrare una crescita evidente. Sta nascendo un circolo virtuoso.
Con l’adozione sempre più diffusa dei feed di IA in applicazioni aziendali più avanzate, si giungerà progressivamente al miglioramento dei framework e dell’efficienza dei processi aziendali. Questi miglioramenti e vantaggi accelereranno ulteriormente lo sviluppo delle applicazioni, massimizzando i benefici e riducendo i costi associati all’adozione. Quando un’azienda può constatare che i benefici superano i costi, le applicazioni basate sull’intelligenza artificiale devono figurare tra le priorità assolute di ogni CIO.