NVIDIA ha annunciato che è ora in piena produzione il GH200 Grace Hopper Superchip, destinato ad alimentare i sistemi in arrivo presto in tutto il mondo per l’esecuzione dei più complessi carichi di lavoro AI e HPC.
I sistemi con GH200 – sottolinea l’azienda – si aggiungono alle oltre 400 configurazioni di sistema alimentate da diverse combinazioni delle più recenti architetture di CPU, GPU e DPU di NVIDIA, fra cui Grace, Hopper, Ada Lovelace e BlueField, create per contribuire a soddisfare la crescente domanda di AI generativa.
Al COMPUTEX, il fondatore e CEO di NVIDIA Jensen Huang ha rivelato nuovi sistemi, partner e ulteriori dettagli relativi al GH200 Grace Hopper Superchip, che riunisce le architetture di CPU NVIDIA Grace basata su Arm e GPU Hopper utilizzando la tecnologia di interconnessione NVIDIA NVLink-C2C.
Questa soluzione – spiega l’azienda – offre una larghezza di banda totale fino a 900 GB/s, sette volte superiore a quella dei lane PCIe Gen5 standard presenti nei sistemi accelerati tradizionali, offrendo così un’elevata capacità di calcolo per affrontare le applicazioni di AI generativa e HPC più esigenti.
Hyperscaler globali e centri di supercalcolo in Europa e negli Stati Uniti sono tra i numerosi clienti che avranno accesso ai sistemi GH200, ha evidenziato NVIDIA.
Sono numerosi i produttori che stanno introducendo sul mercato un’ampia varietà di sistemi alimentati da diverse combinazioni di acceleratori e processori NVIDIA. Tra questi figurano AAEON, Advantech, Aetina, ASRock Rack, ASUS, GIGABYTE, Ingrasys, Inventec, Pegatron, QCT, Tyan, Wistron e Wiwynn, ha sottolineato nel suo keynote del COMPUTEX il CEO di NVIDIA Jensen Huang.
Inoltre, i produttori globali di server Cisco, Dell Technologies, Hewlett Packard Enterprise, Lenovo, Supermicro ed Eviden, una società di Atos, offrono una vasta gamma di sistemi accelerati da NVIDIA.
Tra i partner cloud dell’azienda per NVIDIA H100 figurano: Amazon Web Services (AWS), Cirrascale, CoreWeave, Google Cloud, Lambda, Microsoft Azure, Oracle Cloud Infrastructure, Paperspace e Vultr. Oltre a questo, le GPU NVIDIA L4 sono generalmente disponibili su Google Cloud.
Il portafoglio in arrivo di sistemi accelerati dalle architetture NVIDIA Grace, Hopper e Ada Lovelace offre un ampio supporto allo stack software NVIDIA, che comprende NVIDIA AI, la piattaforma NVIDIA Omniverse e la tecnologia NVIDIA RTX.
NVIDIA AI Enterprise è il layer software della piattaforma NVIDIA AI che offre framework, modelli preaddestrati e strumenti di sviluppo per lo sviluppo e l’implementazione dell’AI.
La piattaforma di sviluppo NVIDIA Omniverse per la creazione e la gestione di applicazioni del metaverso consente a individui e team di lavorare su più suite software e di collaborare in tempo reale in un ambiente condiviso. La piattaforma si basa sul framework Universal Scene Description, un linguaggio 3D aperto ed estensibile per i mondi virtuali.
La piattaforma NVIDIA RTX fonde ray-tracing, deep learning e rasterizzazione per trasformare radicalmente il processo di lavoro dei creatori di contenuti e degli sviluppatori con il supporto di strumenti e API allo stato dell’arte. Le applicazioni costruite sulla piattaforma RTX offrono la potenza del rendering fotorealistico in tempo reale e dell’elaborazione di grafica, video e immagini potenziata dall’intelligenza artificiale per consentire a milioni di designer e artisti di creare e lavorare al meglio.
La disponibilità dei sistemi con i superchip GH200 Grace Hopper è prevista per la fine di quest’anno, ha annunciato NVIDIA.
Tra le numerose novità presentate da NVIDIA al COMPUTEX, c’è anche DGX GH200, il supercomputer per l’intelligenza artificiale che combina 256 superchip GH200, e NVIDIA MGX, l’architettura modulare per l’accelerated computing nei data center.