ASUS, in occasione della sua partecipazione al Computex 2024, ha presentato una gamma completa di server AI per applicazioni che vanno dall’AI generativa a soluzioni di storage innovative. L’evento è caratterizzato dall’apice delle soluzioni AI dell’azienda: il nuovo sistema ASUS ESC AI POD con NVIDIA GB200 NVL72.
In mostra anche i più recenti sistemi ASUS basati su NVIDIA MGX, fra cui ESC NM1-E1, ESC NM2-E1 equipaggiati con NVIDIA GB200 NVL2 e ESR1-511N-M1 con NVIDIA GH200 Grace Hopper Superchip, nonché le più recenti soluzioni ASUS integrate con le GPU NVIDIA HGX H200 e Blackwell.
ASUS è impegnata nella fornitura di soluzioni e servizi software end-to-end, che spaziano dai server ibridi alle implementazioni di edge-computing. Grazie a questa vetrina, ASUS dimostra la propria esperienza nell’infrastruttura server, nello storage, nell’architettura dei data center e nelle piattaforme software sicure, con l’obiettivo di promuovere l’adozione diffusa dell’intelligenza artificiale in diversi settori.
ASUS presenta ESC AI POD (ESC NM2N721-E1 con NVIDIA GB200 NVL72)
L’ampia esperienza di ASUS nella realizzazione di server AI con prestazioni ed efficienza all’avanguardia è stata rafforzata dalla collaborazione con NVIDIA. Uno dei punti salienti dello showcase è il sistema a fattore di forma maggiore, scalabile, alimentato da NVIDIA Blackwell: ESC AI POD con NVIDIA GB200 NVL72.
La soluzione full rack – sottolinea l’azienda – è una sinfonia di GPU, CPU e switch che si armonizzano in una comunicazione diretta e fulminea, mettendo il turbo all’addestramento di trilioni di parametri LLM e all’inferenza in tempo reale. È equipaggiato con il più recente Superchip NVIDIA GB200 Grace Blackwell e con la tecnologia NVIDIA NVLink di quinta generazione, e supporta soluzioni di raffreddamento sia a liquido-aria che a liquido-liquido per liberare prestazioni di AI computing ottimali.
Paul Ju, Corporate Vice President di ASUS e Co-Head di Open Platform BG, ha sottolineato: “La nostra partnership con NVIDIA, leader mondiale nell’AI computing, è alla base della nostra esperienza. Insieme, abbiamo sfruttato una potente sinergia che ci ha permesso di realizzare server AI con prestazioni ed efficienza senza precedenti.”
“ASUS ha una forte esperienza nell’infrastruttura server e nell’architettura dei data center e grazie alla nostra collaborazione siamo in grado di offrire ai clienti sistemi di accelerated computing all’avanguardia“, ha dichiarato Kaustubh Sanghani, vice president of GPU product management di NVIDIA. “Al Computex, ASUS esporrà un’ampia gamma di server basati sulla piattaforma AI di NVIDIA, in grado di soddisfare le esigenze specifiche delle aziende.”
Raggiungere il successo dell’AI con le soluzioni scalabili ASUS MGX
Per favorire l’ascesa delle applicazioni di AI generativa, ASUS ha presentato una linea completa di server basati sull’architettura NVIDIA MGX. Questi includono i server 2U ESC NM1-E1 e ESC NM2-E1 con NVIDIA GB200 NVL2 e il server 1U ESR1-511N-M1. Sfruttando la potenza del superchip NVIDIA GH200 Grace Hopper, l’offerta ASUS basata su NVIDIA MGX è progettata per soddisfare applicazioni di AI e HPC su larga scala, facilitando trasferimenti di dati rapidi e senza interruzioni, formazione e inferenza di deep-learning (DL), analisi dei dati e calcolo ad alte prestazioni.
Progettati per HPC e AI, i più recenti server HGX di ASUS includono ESC N8, alimentato da processori Intel Xeon Scalable di quinta generazione e GPU NVIDIA Blackwell Tensor Core, nonché ESC N8A, alimentato da AMD EPYC 9004 e GPU NVIDIA Blackwell. Queste soluzioni beneficiano di una soluzione termica migliorata per garantire prestazioni ottimali e un PUE inferiore. Progettati per i progressi dell’AI e della data-science, questi potenti server NVIDIA HGX offrono un’esclusiva configurazione one-GPU-to-one-NIC per massimizzare il throughput delle attività di calcolo.
Soluzioni per data center definiti dal software
ASUS è specializzata nella realizzazione di soluzioni per data center su misura, andando oltre l’ordinario per fornire hardware di alto livello e soluzioni software complete e personalizzate per le esigenze delle aziende. I servizi dell’azienda coprono tutto, dalla verifica del sistema all’implementazione remota, assicurando operazioni senza intoppi, essenziali per accelerare lo sviluppo dell’intelligenza artificiale. Questo include un pacchetto unificato che comprende un portale web, uno scheduler, l’allocazione delle risorse e le operazioni di servizio.
Inoltre, le soluzioni server ASUS AI, con SuperNIC e DPU NVIDIA BlueField-3 integrati, supportano la piattaforma di networking Ethernet NVIDIA Spectrum-X per offrire le migliori capacità di networking per le infrastrutture di AI generativa. Oltre a ottimizzare il processo di inferenza dell’AI generativa aziendale, i microservizi di inferenza NVIDIA NIM, parte della piattaforma software NVIDIA AI Enterprise per l’AI generativa, sono in grado di accelerare il tempo di esecuzione dell’AI generativa e di semplificare il processo di sviluppo delle applicazioni di AI generativa.
ASUS offre anche soluzioni di AI generativa personalizzate ai clienti cloud o aziendali, grazie alla collaborazione con fornitori di software indipendenti (ISV), come APMIC, specializzati in modelli linguistici di grandi dimensioni e applicazioni aziendali.
L’esperienza di ASUS consiste nel trovare il perfetto equilibrio tra hardware e software, consentendo ai clienti di accelerare i loro sforzi di ricerca e innovazione. Mentre ASUS continua a progredire nel settore dei server, le sue soluzioni per data center, abbinate agli ASUS AI Foundry Services, sono state impiegate in siti critici a livello globale.
Per ulteriori soluzioni ASUS per data center e per ulteriori informazioni, è possibile visitare il sito dell’azienda.