Home Aziende Red Hat Red Hat e Run:ai ottimizzano i carichi di lavoro AI per il...

Red Hat e Run:ai ottimizzano i carichi di lavoro AI per il cloud ibrido

Red Hat ha annunciato una collaborazione con Run:ai, azienda specializzata nell’ottimizzazione e nell’orchestrazione dell’AI, per portare le funzionalità di allocazione delle risorse di Run:ai su Red Hat OpenShift AI. Semplificando le operazioni AI e ottimizzando l’infrastruttura sottostante, questa collaborazione consente alle aziende di ottenere il massimo dalle risorse AI a disposizione, ottimizzando i flussi di lavoro sia hardware che dei team, su una piattaforma MLOps affidabile per la creazione, la messa a punto, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all’AI su scala.

Le GPU sono i motori di calcolo che guidano i flussi di lavoro dell’AI, consentendone l’addestramento dei modelli, l’inferenza e la sperimentazione. L’utilizzo di questi processori specializzati, tuttavia, può comportare costi notevoli, soprattutto nel caso di compiti distribuiti di addestramento e inferenza. Red Hat e Run:ai stanno lavorando per soddisfare questa esigenza critica di ottimizzazione delle risorse GPU con l’OpenShift Operator certificato di Run:ai su Red Hat OpenShift AI, che aiuta gli utenti a scalare e ottimizzare i loro carichi di lavoro AI ovunque si trovino.

Steven Huels, vicepresidente e direttore generale della Business Unit AI, Red Hat, ha dichiarato: “La crescente adozione dell’AI e la domanda di GPU impone alle aziende di ottimizzare la propria piattaforma AI per ottenere il massimo dalle proprie operazioni e infrastrutture, indipendentemente dalla loro collocazione nel cloud ibrido. Grazie alla nostra collaborazione con Run:ai, stiamo consentendo alle organizzazioni di massimizzare i carichi di lavoro AI su scala senza sacrificare l’affidabilità di una piattaforma AI/ML o le risorse GPU preziose, ovunque sia necessario”.

Omri Geller, CEO e fondatore di Run:ai, ha aggiunto: “Siamo entusiasti di collaborare con Red Hat OpenShift AI per accrescere la potenza delle operation AI. Combinando i punti di forza MLOps di Red Hat OpenShift con l’esperienza di Run:ai nella gestione delle infrastrutture di intelligenza artificiale, stiamo innalzando gli standard dell’AI aziendale fornendo scalabilità continua e gestione ottimizzata delle risorse.”

La piattaforma di orchestrazione di calcolo cloud-native di Run:ai su Red Hat OpenShift AI aiuta a:

  • Risolvere problemi di pianificazione delle GPU per i carichi di lavoro AI con uno schedulatore dedicato per assegnare più facilmente le priorità ai carichi di lavoro mission-critical e consentire l’allocazione delle giuste risorse per supportare tali carichi di lavoro.
  • Utilizzare GPU frazionali e capacità di monitoraggio per allocare dinamicamente le risorse in base alle priorità e alle policy preimpostate e aumentare l’efficienza dell’infrastruttura.
  • Migliorare controllo e visibilità sull’infrastruttura di GPU condivisa per facilitare l’accesso e l’allocazione delle risorse tra i team IT, di data science e di sviluppo delle applicazioni.

L’operatore OpenShift certificato di Run:ai è già ora disponibile. In futuro, Red Hat e Run:ai intendono continuare a sviluppare questa collaborazione con ulteriori capacità di integrazione per Run:ai su Red Hat OpenShift AI, con l’obiettivo di supportare esperienze più fluide per i clienti e di accelerare ulteriormente il passaggio dei modelli AI nei flussi di lavoro di produzione con una coerenza ancora maggiore.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php