IBM e AMD hanno annunciato una collaborazione per la distribuzione degli acceleratori AMD Instinct MI300X come servizio su IBM Cloud.
Questa offerta, che dovrebbe essere disponibile nella prima metà del 2025, mira a migliorare le prestazioni e l’efficienza energetica per i modelli di IA di tipo Gen e per le applicazioni di calcolo ad alte prestazioni (HPC) per i clienti aziendali. Questa collaborazione consentirà inoltre di supportare gli acceleratori AMD Instinct MI300X all’interno della piattaforma IBM watsonx AI and data, nonché il supporto di Red Hat Enterprise Linux AI inferencing.
“Con la continua adozione da parte delle aziende di modelli e dataset di AI di dimensioni maggiori, è fondamentale che gli acceleratori all’interno del sistema siano in grado di elaborare carichi di lavoro ad alta intensità di calcolo con prestazioni elevate e flessibilità di scala”, ha dichiarato Philip Guido, Executive Vice President e Chief Commercial Officer di AMD. “Gli acceleratori AMD Instinct, combinati con il software AMD ROCm, offrono un ampio supporto che include le piattaforme IBM watsonx AI, Red Hat Enterprise Linux AI e Red Hat OpenShift AI per costruire framework leader utilizzando questi potenti strumenti dell’ecosistema aperto. La nostra collaborazione con IBM Cloud avrà lo scopo di consentire ai clienti di eseguire e scalare l’inferenza Gen AI senza ostacolare i costi, le prestazioni o l’efficienza.”
“AMD e IBM Cloud condividono la stessa visione di portare l’IA nelle imprese. Siamo impegnati a portare la potenza dell’IA ai clienti delle imprese, aiutandoli a dare priorità ai loro risultati e garantendo loro la possibilità di scegliere quando si tratta di implementare l’IA”, ha dichiarato Alan Peacock, General Manager di IBM Cloud. “L’utilizzo degli acceleratori AMD su IBM Cloud offrirà ai nostri clienti enterprise un’altra opzione di scalabilità per soddisfare le loro esigenze di IA aziendale, con l’obiettivo di aiutarli a ottimizzare i costi e le prestazioni”.
IBM e AMD stanno collaborando per fornire gli acceleratori MI300X come servizio su IBM Cloud per supportare i clienti aziendali che sfruttano l’IA. Per aiutare i clienti aziendali in tutti i settori, compresi quelli fortemente regolamentati, IBM e AMD intendono sfruttare le funzionalità di sicurezza e conformità di IBM Cloud.
- Supporto per l’inferenza di modelli di grandi dimensioni: Dotati di 192 GB di memoria ad alta larghezza di banda (HBM3), gli acceleratori AMD Instinct MI300X offrono il supporto per l’inferenziazione e la messa a punto dei modelli più grandi. L’ampia capacità di memoria può anche aiutare i clienti a eseguire modelli più grandi con un numero inferiore di GPU, riducendo potenzialmente i costi per l’inferencing.
- Prestazioni e sicurezza migliorate: L’offerta degli acceleratori AMD Instinct MI300X come servizio sui server virtuali IBM Cloud per VPC, nonché attraverso il supporto dei container con IBM Cloud Kubernetes Service e IBM Red Hat OpenShift su IBM Cloud, può contribuire a ottimizzare le prestazioni per le aziende che eseguono applicazioni AI.
Per i carichi di lavoro generativi di inferenza AI, IBM prevede di abilitare il supporto per gli acceleratori AMD instinct MI300X all’interno della piattaforma IBM watsonx AI and data, fornendo ai clienti watsonx ulteriori risorse infrastrutturali AI per scalare i loro carichi di lavoro AI in ambienti cloud ibridi. Inoltre, le piattaforme Red Hat Enterprise Linux AI e Red Hat OpenShift AI possono eseguire modelli linguistici di grandi dimensioni (LLM) della famiglia Granite con strumenti di allineamento utilizzando InstructLab sugli acceleratori MI300X.
La disponibilità generale di IBM Cloud con acceleratori AMD Instinct MI300X è prevista per la prima metà del 2025.