Oracle, Microsoft e OpenAI hanno siglato una partnership per estendere la piattaforma Microsoft Azure AI su Oracle Cloud Infrastructure (OCI) con l’obiettivo di fornire capacità aggiuntiva per OpenAI. .
OpenAI è la società di ricerca e sviluppo nel campo dell’AI creatrice di ChatGPT, che fornisce servizi di intelligenza artificiale generativa a oltre 100 milioni di utenti ogni mese.
“Siamo lieti di lavorare con Microsoft e Oracle. OCI estenderà la capacità della piattaforma di Azure e consentirà a OpenAI di continuare a crescere scalando sulle proprie risorse cloud”, ha dichiarato Sam Altman, Chief Executive Officer, OpenAI.
“La corsa per costruire il modello linguistico di grandi dimensioni più ampio al mondo è iniziata e sta generando una straordinaria richiesta di servizi di infrastruttura AI Gen2 di Oracle” ha dichiarato Larry Ellison, Chairman e CTO di Oracle. “I leader di settore come OpenAI scelgono OCI perché è l’infrastruttura AI più veloce e conveniente al mondo.”
L’infrastruttura AI all’avanguardia di OCI sta favorendo l’innovazione in questo campo. OpenAI si unirà alle migliaia di innovatori a livello globale, appartenenti a tutti i settori, che eseguono i propri carichi di lavoro AI sull’infrastruttura AI di OCI. Adept, Modal, MosaicML, NVIDIA, Reka, Suno, Together AI, Twelve Labs, xAI e altri ancora utilizzano OCI Supercluster per l’addestramento e l’inferenza dei modelli di AI di nuova generazione.
Le funzionalità ad hoc per l’AI offerte da OCI consentono a startup e aziende di ogni settore di creare e addestrare modelli in tempi più rapidi e in modo più affidabile, in qualsiasi modalità/luogo di esecuzione del cloud distribuito di Oracle.
Per la formazione di modelli LLM (Large Language Model), OCI Supercluster può scalare fino a supportare 64.000 GPU NVIDIA Blackwell da o Superchip GB200 Grace Blackwell connessi tramite una rete di cluster RDMA a bassissima latenza e una varietà di soluzioni di storage HPC . Le virtual machine OCI Compute e le istanze NVIDIA GPU Bare Metal di OCI sono in grado di alimentare le applicazioni per l’AI generativa, la computer vision, l’elaborazione del linguaggio naturale, i sistemi di suggerimento e molto altro ancora.