In occasione del GTC di NVIDIA, Microsoft e NVIDIA hanno annunciato il rinnovo della loro partnership di lunga data, fornendo diversi aggiornamenti sulle infrastrutture di AI all’avanguardia, nuove integrazioni di piattaforme e innovazioni per il settore.
I punti salienti dell’annuncio includono innanzitutto una partnership strategica che porta la potenza del processore Grace Blackwell 200 (GB200) di NVIDIA, un nuovo processore progettato specificamente per i workload AI, su Microsoft Azure.
Poi, la disponibilità generale di Azure NC H100 v5 VM, progettato per l’addestramento e l’inferenza dell’intelligenza artificiale di fascia media. Quindi l’integrazione di Microsoft Fabric e NVIDIA DGX Cloud. Infine, Microsoft e NVIDIA stanno collaborando per accelerare le innovazioni nel campo della sanità e della life science, tra cui NVIDIA BioNeMo su DGX Cloud.
Questi aggiornamenti secondo Microsoft consentiranno ai clienti non solo di creare e distribuire soluzioni di intelligenza artificiale all’avanguardia, ma anche di ridurre i tempi e i costi necessari per offrire queste soluzioni agli utenti.
“Insieme a NVIDIA, stiamo rendendo concreta la promessa dell’intelligenza artificiale, contribuendo a ottenere nuovi vantaggi e incrementi di produttività per le persone e le organizzazioni di tutto il mondo“, ha dichiarato Satya Nadella, presidente e CEO di Microsoft. “Dall’introduzione del processore GB200 Grace Blackwell su Azure alle nuove integrazioni tra DGX Cloud e Microsoft Fabric, gli annunci che facciamo oggi garantiranno ai clienti la disponibilità delle piattaforme e degli strumenti più completi su tutti i livelli dello stack Copilot, dal silicio al software, per realizzare le proprie capacità di AI“.
“L’IA sta trasformando la nostra vita quotidiana, aprendo un mondo di nuove opportunità“, ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA. “Grazie alla nostra collaborazione con Microsoft, stiamo costruendo un futuro che libera la promessa dell’IA per i clienti, aiutandoli a offrire soluzioni innovative al mondo“.
Microsoft sarà una delle prime organizzazioni a portare la potenza di NVIDIA Grace Blackwell GB200 e l’avanzata rete NVIDIA Quantum-X800 InfiniBand su Azure, offrendo modelli foundation all’avanguardia da un trilione di parametri per l’elaborazione del linguaggio naturale, la visione artificiale, il riconoscimento vocale e altro ancora.
Microsoft annuncia inoltre la disponibilità generale della macchina virtuale (VM) Azure NC H100 v5 basata sulla piattaforma NVIDIA H100 NVL. Progettata per il training e l’inferenza di fascia media, la serie di macchine virtuali NC offre ai clienti due classi di macchine virtuali da una a due GPU NVIDIA H100 94GB PCIe Tensor Core e supporta la tecnologia NVIDIA Multi-Instance GPU (MIG), che consente ai clienti di partizionare ogni GPU in un massimo di sette istanze, offrendo flessibilità e scalabilità per diversi carichi di lavoro AI.
Per quanto riguarda la digitalizzazione industriale, le API NVIDIA Omniverse Cloud saranno disponibili per la prima volta su Microsoft Azure nel corso dell’anno e consentiranno agli sviluppatori di aumentare l’interoperabilità dei dati e la visualizzazione basata sulla fisica nelle applicazioni software esistenti. Al GTC di NVIDIA, Microsoft dimostra un’anteprima delle possibilità offerte dalle API Omniverse Cloud su Microsoft Azure. Utilizzando un visualizzatore 3D interattivo in Microsoft Power BI, gli operatori possono vedere i dati di fabbrica in tempo reale sovrapposti a un gemello digitale 3D della loro struttura per ottenere nuove informazioni che possono accelerare la produzione.
Le GPU NVIDIA e NVIDIA Triton Inference Server contribuiscono a fornire predizioni di inferenza AI in Microsoft Copilot per Microsoft 365. Copilot per Microsoft 365, presto disponibile come tasto fisico dedicato della tastiera sui PC Windows 11, combina la potenza di modelli linguistici di grandi dimensioni con dati aziendali proprietari per offrire intelligenza contestualizzata in tempo reale, consentendo agli utenti di migliorare la propria creatività, produttività e abilità.
I microservizi di inferenza NVIDIA NIM sono in arrivo su Azure AI per accelerare le implementazioni di AI. Parte della piattaforma software NVIDIA AI Enterprise, disponibile anche su Azure Marketplace, NIM fornisce microservizi cloud-nativi per l’inferenza ottimizzata su oltre due dozzine di modelli foundation popolari, compresi i modelli costruiti da NVIDIA. Per l’implementazione, i microservizi offrono container precostituiti ed eseguibili ovunque alimentati dal software di inferenza NVIDIA AI Enterprise – fra cui Triton Inference Server, TensorRT e TensorRT-LLM – per aiutare gli sviluppatori a velocizzare il time to market delle applicazioni di AI di produzione ottimizzate per le prestazioni.