Home Aziende Red Hat Red Hat Summit: per l’innovazione dell’AI, è fondamentale l’ecosistema

Red Hat Summit: per l’innovazione dell’AI, è fondamentale l’ecosistema

L’annuale Red Hat Summit svoltosi a Denver, Colorado, rappresenta l’occasione per presentare importanti novità che rivoluzioneranno il mondo dell’ICT enterprise. Quest’anno, gli annunci del Summit si sono concentrati principalmente sull’innovazione in tema dell’intelligenza artificiale.

Oltre allo sviluppo di piattaforme per abbracciare l’AI e al supporto per infrastrutture ottimizzate per l’AI, è l’ecosistema a giocare un ruolo fondamentale per Red Hat: nessun fornitore è in grado di fornire le funzionalità end-to-end richieste da un ambiente AI e Red Hat può contare su un vasto sistema di partner a cui attingere, sia per le funzionalità generali che per quelle specifiche per l’intelligenza artificiale.

L’azienda ha evidenziato come il suo solido ecosistema di partner, composto da fornitori indipendenti di software (ISV) e global system integrator (GSI), stia promuovendo casi d’uso, applicazioni e servizi di intelligenza artificiale (AI) utilizzando le tecnologie open hybrid cloud dell’azienda. I partner Red Hat forniscono competenze approfondite, conoscenze e carichi di lavoro certificati costruiti su piattaforme leader di mercato, tra cui Red Hat Enterprise Linux, OpenShift e Ansible Automation Platform, e ora Red Hat OpenShift AI, per alimentare applicazioni critiche e aiutare i clienti a implementare soluzioni AI realmente trasformative.

Inoltre, per potenziare ulteriormente il proprio ecosistema AI, lo specialista delle soluzioni open source ha annunciato diverse collaborazioni con AMD, Intel, NVIDIA, Run:ai, Elastic e Stability AI.

I provider di applicazioni stanno collaborando con Red Hat per fornire soluzioni compatibili e supportate su OpenShift AI per un’integrazione semplificata e prestazioni migliorate durante il ciclo di vita dell’intelligenza artificiale e dell’apprendimento automatico (AI/ML). In particolare:

  • Le applicazioni dei partner AI/ML certificati possono essere integrate in modo nativo in Red Hat OpenShift e fornire funzionalità complementari o estese su OpenShift AI.
  • Le applicazioni dei partner AI/ML pre-integrate sono disponibili all’interno della dashboard dell’interfaccia utente di OpenShift AI per aiutare i clienti ad accedere più facilmente alle ultime soluzioni di accelerazione hardware e software.
  • I principali global system integrator offrono servizi gestiti e supporto per gestire carichi di lavoro di AI generativa (GenAI) in ambienti cloud ibridi.

Inoltre, l’azienda ha annunciato le seguenti collaborazioni:

  • AMD
    Red Hat e AMD ampliano le possibilità di scelta dei clienti nella creazione, distribuzione e gestione dei carichi di lavoro AI. Il GPU Operator di AMD sarà ora disponibile e supportato su Red Hat OpenShift AI per accelerare carichi di lavoro AI nel cloud ibrido, fornendo alle organizzazioni gli strumenti necessari per affrontare le complessità dell’AI.
  • NVIDIA
    L’azienda ha avviato l’integrazione dei microservizi NVIDIA NIM su Red Hat OpenShift AI con l’obiettivo di ottimizzare l’inferenza di decine di modelli di intelligenza artificiale (AI) tramite il supporto di una piattaforma cloud ibrida AI/ML coerente e open source. L’integrazione di NVIDIA NIM – una serie di microservizi di inferenza di facile utilizzo inclusi nella piattaforma software NVIDIA AI Enterprise – consentirà alle organizzazioni di utilizzare Red Hat OpenShift AI per accelerare l’erogazione di applicazioni di AI generativa (Gen AI) e velocizzare il time to value.
  • Intel
    Red Hat potenzia i carichi di lavoro AI con le tecnologie Intel dal Datacenter all’Edge. Red Hat OpenShift AI, insieme alle tecnologie AI di Intel, consentirà alle organizzazioni di accelerare l’innovazione AI/ML su una piattaforma integrata e affidabile. Insieme, le due aziende faciliteranno la fornitura di soluzioni di intelligenza artificiale (AI) end-to-end sui prodotti Intel AI – tra cui gli acceleratori Intel Gaudi AI, i processori Intel Xeon, i processori Intel Core Ultra e Core e le GPU Intel Arc – per lo sviluppo e l’addestramento di modelli, il model serving, la gestione e il monitoraggio senza soluzione di continuità attraverso un’infrastruttura cloud ibrida.
  • Run:ai
    L’azienda sta portando le capacità di allocazione delle risorse di Run:ai in Red Hat OpenShift AI per aiutare a semplificare le operazioni di AI e ottimizzare l’infrastruttura sottostante. Con questa collaborazione, Red Hat e Run:ai consentono alle aziende di ottenere il massimo dai carichi di lavoro AI su una piattaforma MLOps affidabile per la creazione, il tuning, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all’AI su scala.
  • Stability AI
    Con Stability AI, azienda leader a livello mondiale nell’intelligenza artificiale generativa (GenAI) aperta e multimodale, Red Hat integrerà modelli GenAI aperti all’interno di OpenShift AI. Grazie a questa collaborazione, i clienti di Red Hat OpenShift AI potranno accedere più facilmente a modelli linguistici di grandi dimensioni (LLM) open source all’avanguardia per sviluppare, testare e produrre proof of concept AI all’interno della piattaforma esistente per una varietà di casi d’uso AI quali immagini, video, audio, 3D, codice e linguaggio.
  • Elastic
    Elastic, società di intelligenza artificiale focalizzata sulla ricerca, consentirà a Red Hat di offrire esperienze avanzate che supportino modelli di retrieval augmented generation (RAG) utilizzando Elasticsearch come soluzione di database vettoriale preferita integrata su OpenShift AI. Con questa collaborazione, Red Hat ed Elastic forniscono alle aziende gli strumenti necessari per fornire, mantenere e perfezionare nel tempo soluzioni RAG su un’unica piattaforma coerente.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php