In occasione dell’evento “AI Everywhere” tenutosi a New York, Intel ha lanciato un portfolio di prodotti AI volti a supportare le soluzioni dei clienti ovunque, nei data center, nel cloud, nelle reti e nei PC, e all’edge.
Tra gli annunci più significativi:
- La famiglia di processori Intel Core Ultra mobile, i primi basati sulla tecnologia di processo Intel 4 e i primi a beneficiare del più grande cambio di architettura da 40 anni a questa parte, offre la migliore efficienza energetica tra i prodotti di Intel e dà il via all’era dei PC AI.
- La famiglia di processori Intel Xeon di quinta generazione è progettata con l’accelerazione AI in ogni core, rappresentando un balzo in avanti nell’AI e nelle prestazioni in generale, riduce i costi totali di esercizio (TCO).
- Il CEO di Intel Pat Gelsinger ha presentato per la prima volta l’acceleratore AI Intel Gaudi3, in arrivo il prossimo anno.
“Si prevede che l’innovazione nel campo dell’AI possa accrescere l’impatto dell’economia digitale fino a rappresentare un terzo del PIL globale”, ha dichiarato Pat Gelsinger. “Intel sta sviluppando le tecnologie e soluzioni che consentiranno agli utenti di integrare senza soluzione di continuità e di implementare l’AI nelle loro applicazioni – nel cloud e, in misura sempre maggiore, localmente all’edge dove i dati vengono generati e utilizzati”.
Gelsinger ha mostrato l’estesa presenza di Intel nell’AI, dai server cloud e enterprise fino ai client di volume e agli ambienti edge diffusi. Ha inoltre ribadito che Intel sta tenendo il passo previsto nel fornire cinque nuovi nodi tecnologici di processo in quattro anni.
“La mission di Intel è di portare l’AI ovunque grazie a piattaforme progettate con eccezionale efficacia, a soluzioni sicure e al supporto di ecosistemi aperti. Il nostro portfolio AI si rafforza ulteriormente con l’annuncio che facciamo oggi di Intel Core Ultra, che dà il via all’era dell’AI PC, e dello Xeon AI accelerated di quinta generazione per l’impresa”, ha aggiunto Gelsinger.
Intel Core Ultra alla base degli AI PC e di una nuova gamma di applicazioni
Intel Core Ultra rappresenta il più grande cambiamento di architettura di Intel negli ultimi 40 anni con un chip che restituisce prestazioni eccezionali su tutti i fronti: potenza di calcolo della CPU, grafica, efficienza energetica, durata della batteria e nuove importanti funzionalità AI. L’AI PC rappresenta la più grande trasformazione dell’esperienza d’uso del PC da 20 anni a questa parte, quando Intel Centrino svincolò i laptop dai cavi di rete consentendo la connessione wi-fi ovunque.
Intel Core Ultra è dotato del primo acceleratore AI integrato in un chip di Intel, la Neural Processing Unit (NPU), per consentire un nuovo livello di accelerazione AI a basso consumo energetico con un’efficienza di 2,5 volte maggiore rispetto alla generazione precedente2. La sua GPU di elevatissimo livello e una CPU leader di settore consentono entrambe di accelerare le soluzioni AI.
Altrettanto importante il fatto che Intel stia collaborando a stretto contatto con oltre 100 società di software che porteranno sul mercato dei PC diverse centinaia di applicazioni potenziate dall’intelligenza artificiale: si tratta di applicazioni altamente creative, produttive e divertenti che cambieranno l’esperienza d’uso dei PC. Per i clienti consumer e professionali, ciò significa che una serie più ampia ed estesa di applicazioni supportate dall’intelligenza artificiale funzionerà meglio su Intel Core Ultra rispetto alle piattaforme concorrenti. Ad esempio, i creatori di contenuti che lavorano in Adobe Premier Pro godranno di prestazioni migliori del 40% rispetto alla concorrenza.
Gli AI PC basati su Intel Core Ultra sono disponibili presso rivenditori selezionati negli Stati Uniti per le festività natalizie. Nel corso del prossimo anno, Intel Core Ultra porterà l’intelligenza artificiale in oltre 230 laptop e PC in tutto il mondo. Gli AI PC costituiranno l’80% del mercato entro il 2028 e introdurranno nuovi strumenti nel modo in cui lavoriamo, impariamo e creiamo.
I nuovi processori Xeon potenziano l’AI nei data center, nel cloud, nelle reti e all’edge
La famiglia di processori Intel Xeon di quinta generazione, anch’essa presentata oggi, rappresenta un significativo balzo in avanti in termini di prestazioni ed efficienza: un aumento medio delle prestazioni del 21% con la stessa potenza termica consente un aumento del 36% delle prestazioni per Watt. Gli utenti che seguono un tipico ciclo di aggiornamento di cinque anni e l’aggiornamento da generazioni ancora più vecchie potranno ridurre il proprio TCO fino al 77%.
Xeon è l’unico processore mainstream per data center con accelerazione AI integrata, che offre fino al 42% in più di inferenza e fine-tuning anche su modelli delle dimensioni di 20 miliardi di parametri. È anche l’unica CPU con una serie coerente e in costante miglioramento dei benchmark di inferenza e training MLPerf.
Gli acceleratori AI integrati di Xeon, insieme al software ottimizzato e alle funzionalità di telemetria migliorate, consentono un’implementazione più gestibile ed efficiente di carichi di lavoro di rete e periferici per i service provider di telecomunicazioni, le reti di distribuzione di contenuti e settori verticali tra cui la vendita al dettaglio, la sanità e il manifatturiero.
Durante l’evento, IBM ha annunciato che, durante i test, i processori Intel Xeon di quinta generazione hanno raggiunto un throughput delle query fino a 2,7 volte superiore sulla piattaforma watsonx.data rispetto ai processori Xeon della generazione precedente. Google Cloud, che distribuirà i processori Xeon di quinta generazione il prossimo anno, indica che Palo Alto Networks ha registrato un aumento delle prestazioni di due volte superiore nei suoi modelli di deep learning di rilevamento delle minacce utilizzando l’accelerazione integrata in Xeon di quarta generazione tramite Google Cloud. Lo studio indipendente di gaming Gallium Studios si è rivolto alla piattaforma AI di Numenta in esecuzione su processori Xeon per migliorare le prestazioni di inferenza di 6,5 volte rispetto a un’istanza cloud basata su GPU, risparmiando sui costi e riducendo latenza di Prox, il suo videogame basato su AI.
Prestazioni di questo genere aprono nuove possibilità per le applicazioni di elaborazione del linguaggio naturale e per l’intelligenza artificiale avanzata, non solo nei data center e nel cloud, ma nelle reti e nelle applicazioni edge di tutto il mondo.
Soluzioni di AI Acceleration ovunque siano necessarie per gli sviluppatori
Sia i Core Ultra che gli Xeon di quinta generazione troveranno applicazioni inaspettate. Ad esempio in un ristorante che non mostri solo il menu, ma guidi l’ospite in base al suo budget e alle sue esigenze dietetiche; un piano produttivo che coglie alla fonte i problemi di qualità e sicurezza; un’ecografia che vede ciò che gli occhi umani potrebbero non vedere; una rete elettrica che gestisce l’erogazione di energia con grande precisione.
Questi casi di utilizzo dell’edge computing rappresentano il segmento dell’informatica in più rapida crescita, con un mercato globale previsto di 445 miliardi di dollari entro la fine del decennio, all’interno del quale l’intelligenza artificiale è il carico di lavoro in più rapida crescita. In quel mercato, i dispositivi edge e client genereranno una domanda di inferenza 1,4 volte maggiore rispetto ai data center.
In molti casi, i clienti utilizzeranno un mix di soluzioni AI adatte alla loro attività. Zoom, ad esempio, esegue carichi di lavoro di intelligenza artificiale su sistemi client basati su Intel Core e soluzioni cloud basate su Intel Xeon all’interno della sua piattaforma di comunicazione e collaborazione all-in-one per offrire la migliore esperienza d’uso e i migliori costi. Zoom utilizza l’intelligenza artificiale non solo per filtrare il rumore di fondo del cane del vicino che abbaia o sfocare lo sfondo nelle call, ma anche per generare le minute della riunione e inviarle in un’e-mail.
Per rendere le tecnologie hardware AI quanto più accessibili e facili da usare possibile, Intel progetta ottimizzazioni nei framework AI utilizzati dagli sviluppatori (come PyTorch e TensorFlow) e offrire librerie fondazionali (tramite oneAPI) per rendere il software portabile e altamente performante su diversi tipi di hardware.
Gli strumenti avanzati di sviluppo, tra cui oneAPI open source di Intel e il toolkit OpenVINO, aiutano a sfruttare l’accelerazione hardware per carichi di lavoro e soluzioni di intelligenza artificiale e a creare, ottimizzare e distribuire rapidamente modelli di intelligenza artificiale su un’ampia gamma di target di inferenza.
Uno sguardo in anteprima all’acceleratore Intel Gaudi3
A conclusione dell’evento, Gelsinger ha anche fornito un aggiornamento su Intel Gaudi3, mostrando per la prima volta un wafer dell’acceleratore AI di nuova generazione per il deep learning e modelli di Generative AI su grande scala, in arrivo il prossimo anno. Intel ha assistito a una rapida espansione della propria pipeline Gaudi grazie a vantaggi prestazionali crescenti combinati con prezzi altamente competitivi. Con la crescente domanda di soluzioni di intelligenza artificiale generativa, Intel prevede di conquistare una quota maggiore del mercato degli acceleratori nel 2024 grazie alla sua suite di acceleratori AI basati su Gaudi.
Assieme ai propri partner e a un ampio ecosistema, Intel sta creando nuove opportunità di crescita basate sull’AI, portandola ovunque. Oggi.