NVIDIA e i principali produttori di computer del mondo hanno presentato in occasione del Computex una serie di sistemi basati sull’architettura NVIDIA Blackwell con CPU Grace, networking e infrastrutture enterprise NVIDIA per costruire AI factory e data center per guidare la prossima ondata di innovazioni potenziate dall’AI generativa.
Durante il suo keynote al COMPUTEX, il fondatore e CEO di NVIDIA Jensen Huang ha annunciato che ASRock Rack, ASUS, GIGABYTE, Ingrasys, Inventec, Pegatron, QCT, Supermicro, Wistron e Wiwynn offriranno sistemi di IA in cloud, on-premise, embedded e edge utilizzando GPU e networking NVIDIA.
“La prossima rivoluzione industriale è iniziata. Aziende e Paesi stanno collaborando con NVIDIA per spostare i data center tradizionali da un trilione di dollari verso l’accelerated computing e costruire un nuovo tipo di data center – le AI factory – per produrre una nuova merce: l’intelligenza artificiale“, ha dichiarato Huang. “Dai produttori di server, reti e infrastrutture agli sviluppatori di software, l’intero settore si sta preparando a Blackwell per accelerare l’innovazione basata sull’AI in ogni campo.”
Per rispondere ad applicazioni di ogni tipo, l’offerta spazierà da GPU singole a multi-GPU, da processori x86 a processori basati su Grace, e da tecnologie di raffreddamento ad aria o a liquido.
Inoltre, per accelerare lo sviluppo di sistemi di diverse dimensioni e configurazioni, la piattaforma di progettazione modulare NVIDIA MGX supporta ora i prodotti NVIDIA Blackwell. Questi includono la nuova piattaforma NVIDIA GB200 NVL2, costruita per offrire prestazioni senza precedenti per l’inferenza di modelli linguistici di grandi dimensioni, la retrieval-augmented generation e il data processing.
GB200 NVL2 – afferma il produttore – è ideale per le opportunità di mercato emergenti come l’analisi dei dati, per la quale le aziende spendono decine di miliardi di dollari all’anno. Sfruttando le prestazioni della memoria ad alta larghezza di banda fornite dalle interconnessioni NVLink-C2C e dai motori di decompressione dedicati dell’architettura Blackwell, l’elaborazione dei dati viene accelerata fino a 18 volte, con un’efficienza energetica 8 volte superiore rispetto all’utilizzo di CPU x86, sostiene l’azienda.
Per soddisfare le diverse esigenze di accelerated computing dei data center di tutto il mondo, NVIDIA MGX offre ai produttori di computer un’architettura di riferimento per realizzare in modo rapido e conveniente oltre 100 configurazioni di sistema.
I produttori iniziano con un’architettura di sistema di base per il loro chassis di server, quindi selezionano la GPU, la DPU e la CPU per affrontare i diversi carichi di lavoro. Ad oggi, sono stati rilasciati o sono in fase di sviluppo più di 90 sistemi di oltre 25 partner che sfruttano l’architettura di riferimento MGX, rispetto ai 14 sistemi di sei partner dello scorso anno. L’uso di MGX può aiutare a ridurre i costi di sviluppo fino a tre quarti e i tempi di sviluppo di due terzi, fino a soli sei mesi.
AMD e Intel sostengono l’architettura MGX con l’intenzione di fornire, per la prima volta, i propri progetti di moduli per processori host CPU. Questo include la piattaforma AMD Turin di prossima generazione e il processore Intel Xeon 6 con P-cores (precedentemente chiamato Granite Rapids). Tutti i costruttori di sistemi server possono utilizzare questi reference design per risparmiare tempo di sviluppo, garantendo al tempo stesso coerenza di progettazione e prestazioni.
Anche l’ultima piattaforma di NVIDIA, GB200 NVL2, sfrutta MGX e Blackwell. Il suo design scale-out a singolo nodo consente un’ampia varietà di configurazioni di sistema e di opzioni di rete per integrare senza problemi l’accelerated computing nell’infrastruttura del data center esistente.
GB200 NVL2 si aggiunge alla gamma di prodotti Blackwell, che comprende anche le GPU NVIDIA Blackwell Tensor Core, i Superchip GB200 Grace Blackwell e GB200 NVL72.
Durante il suo keynote Huang ha anche annunciato che aziende leader di Taiwan stanno rapidamente adottando Blackwell per portare la potenza dell’IA nelle loro attività.
Il principale centro medico di Taiwan, il Chang Gung Memorial Hospital, intende utilizzare la piattaforma di computing NVIDIA Blackwell per portare avanti la ricerca biomedica e accelerare le applicazioni di imaging e linguistiche per migliorare i flussi di lavoro clinici e, in ultima analisi, l’assistenza ai pazienti.
Foxconn, uno dei maggiori produttori di elettronica al mondo, sta pianificando di utilizzare NVIDIA Grace Blackwell per sviluppare piattaforme di soluzioni intelligenti per veicoli elettrici e piattaforme robotiche basate sull’intelligenza artificiale, oltre a un numero crescente di servizi di intelligenza artificiale generativa basati sul linguaggio per offrire esperienze più personalizzate ai propri clienti.
I commenti di ASUS e dei partner
Adam Norwitt, presidente e CEO di Amphenol: “I rivoluzionari sistemi di intelligenza artificiale di NVIDIA richiedono soluzioni di interconnessione avanzate e Amphenol è orgogliosa di fornire componenti fondamentali. In qualità di partner importante del ricco ecosistema di NVIDIA, siamo in grado di fornire prodotti di interconnessione altamente complessi ed efficienti per gli acceleratori Blackwell, per contribuire a fornire prestazioni all’avanguardia.”
Spencer Shen, presidente e CEO di AVC: “AVC svolge un ruolo fondamentale nei prodotti NVIDIA, fornendo un raffreddamento efficiente per il suo hardware AI, compreso il più recente Grace Blackwell Superchip. Con la continua crescita dei modelli e dei carichi di lavoro dell’IA, una gestione termica affidabile è importante per gestire l’elaborazione intensiva dell’IA – e noi siamo al fianco di NVIDIA in ogni fase del processo“.
Jonney Shih, presidente di ASUS: “ASUS sta collaborando con NVIDIA per portare l’AI aziendale a nuovi livelli con la nostra potente linea di server, che presenteremo al COMPUTEX. Utilizzando le piattaforme MGX e Blackwell di NVIDIA, siamo in grado di creare soluzioni di data center su misura per gestire i carichi di lavoro dei clienti in termini di formazione, inferenza, analisi dei dati e HPC“.
Janel Wittmayer, presidente di CPC di Dover Corporation: “L’innovativa tecnologia dei connettori di CPC permette di collegare in modo semplice e affidabile le GPU NVIDIA raffreddate a liquido ai sistemi di intelligenza artificiale. Con una visione condivisa di prestazioni e qualità, CPC ha la capacità e l’esperienza per fornire componenti tecnologici critici per supportare l’incredibile crescita e il progresso di NVIDIA. I nostri connettori sono fondamentali per mantenere l’integrità dei prodotti sensibili alla temperatura, il che è importante quando i sistemi di intelligenza artificiale eseguono operazioni ad alta intensità di calcolo. Siamo entusiasti di far parte dell’ecosistema NVIDIA e di portare la nostra tecnologia in nuove applicazioni“.
Andy Lin, CEO di Cooler Master: “La domanda di accelerated computing continua a crescere, così come la domanda di soluzioni che soddisfino efficacemente gli standard energetici per le aziende che sfruttano acceleratori all’avanguardia. In qualità di pioniere nelle soluzioni di gestione termica, Cooler Master sta contribuendo a sbloccare il pieno potenziale della piattaforma NVIDIA Blackwell, che offrirà prestazioni incredibili ai clienti.”
Kim Fausing, CEO di Danfoss: “L’attenzione di Danfoss per i progetti innovativi e ad alte prestazioni di scollegamento rapido e di alimentazione a fluido rende i nostri accoppiamenti preziosi per consentire un funzionamento efficiente, affidabile e sicuro nei data center. In quanto parte vitale dell’ecosistema AI di NVIDIA, la nostra collaborazione consente ai data center di soddisfare le crescenti richieste di AI riducendo al minimo l’impatto ambientale“.
Ping Cheng, presidente e CEO di Delta Electronics: “La domanda onnipresente di potenza di calcolo ha dato il via a una nuova era di accelerazione delle prestazioni. Grazie ai nostri sistemi avanzati di raffreddamento e alimentazione, Delta ha sviluppato soluzioni innovative in grado di consentire alla piattaforma Blackwell di NVIDIA di operare ai massimi livelli di prestazioni, mantenendo al contempo l’efficienza energetica e termica.”
Etay Lee, vicepresidente e general manager di GIGABYTE: “Grazie alla nostra collaborazione che dura da quasi tre decenni, GIGABYTE ha un impegno profondo nel supportare le tecnologie NVIDIA attraverso GPU, CPU, DPU e networking ad alta velocità. Per consentire alle aziende di ottenere prestazioni ed efficienza energetica ancora maggiori per i carichi di lavoro ad alta intensità di calcolo, stiamo introducendo sul mercato un’ampia gamma di sistemi basati su Blackwell“.
Young Liu, presidente e CEO di Hon Hai Technology Group: “Mentre l’IA generativa trasforma le industrie, Foxconn è pronta con soluzioni all’avanguardia per soddisfare le più diverse ed esigenti necessità di calcolo. Non solo utilizziamo la più recente piattaforma Blackwell nei nostri server, ma contribuiamo anche a fornire i componenti chiave a NVIDIA, garantendo ai nostri clienti un time-to-market più rapido“.
Jack Tsai, presidente di Inventec: “Da quasi mezzo secolo Inventec progetta e produce prodotti e componenti elettronici, la linfa vitale della nostra attività. Grazie alla nostra soluzione NVIDIA MGX basata su rack e alimentata dal superchip NVIDIA Grace Blackwell, stiamo aiutando i clienti a entrare in un nuovo regno di capacità e prestazioni dell’intelligenza artificiale“.
Anson Chiu, presidente di LITEON Technology: “Nella ricerca di data center più ecologici e sostenibili, le soluzioni di gestione dell’alimentazione e di raffreddamento sono al centro dell’attenzione. Con il lancio della piattaforma NVIDIA Blackwell, LITEON sta rilasciando diverse soluzioni di raffreddamento a liquido che consentono ai partner di NVIDIA di sbloccare il futuro dei data center ad alta efficienza e rispettosi dell’ambiente“.
Barry Lam, presidente di Quanta Computer: “Siamo al centro di un mondo guidato dall’intelligenza artificiale, dove l’innovazione sta accelerando come mai prima d’ora. NVIDIA Blackwell non è solo un motore: è la scintilla che accende questa rivoluzione industriale. Nel definire la prossima era dell’IA generativa, Quanta si unisce con orgoglio a NVIDIA in questo viaggio straordinario. Insieme, daremo forma e definizione a un nuovo capitolo dell’IA“.
Charles Liang, presidente e CEO di Supermicro: “La nostra architettura a blocchi e le nostre soluzioni di raffreddamento a liquido su scala rack, combinate con la nostra ingegneria interna e la nostra capacità di produzione globale di 5.000 rack al mese, ci permettono di fornire rapidamente un’ampia gamma di prodotti basati sulla piattaforma NVIDIA AI di grande impatto alle AI factory di tutto il mondo. I nostri sistemi ad alte prestazioni raffreddati a liquido o ad aria con design su scala rack, ottimizzati per tutti i prodotti basati sull’architettura NVIDIA Blackwell, offriranno ai clienti un’incredibile scelta di piattaforme in grado di soddisfare le loro esigenze di computing di livello superiore, oltre che un importante salto nel futuro dell’IA.”
C.C. Wei, CEO di TSMC: “TSMC lavora a stretto contatto con NVIDIA per spingere i limiti dell’innovazione dei semiconduttori che consentono di realizzare le loro visioni sull’IA. Le nostre tecnologie di produzione di semiconduttori, leader del settore, hanno contribuito a dare forma alle rivoluzionarie GPU di NVIDIA, comprese quelle basate sull’architettura Blackwell“.
Jeff Lin, CEO di Wistron: “In qualità di partner di produzione chiave, Wistron ha intrapreso un viaggio incredibile al fianco di NVIDIA, offrendo ai clienti tecnologie di GPU Computing e soluzioni cloud di AI. Ora stiamo lavorando con le più recenti architetture di GPU e i reference design di NVIDIA, come Blackwell e MGX, per portare rapidamente sul mercato nuovi e straordinari prodotti di AI computing“.
William Lin, presidente di Wiwynn: “Wiwynn è impegnata ad aiutare i clienti a soddisfare la crescente domanda di potenza di calcolo massiccia e di soluzioni di raffreddamento avanzate nell’era dell’IA generativa. Con la nostra ultima linea di soluzioni basate sulle piattaforme NVIDIA Grace Blackwell e MGX, stiamo realizzando server AI ottimizzati, a livello di rack e raffreddati a liquido, specificamente concepiti per i carichi di lavoro più impegnativi dei cloud provider e delle aziende su scala hyperscale.”