Home Intelligenza Artificiale Red Hat OpenShift AI 2.15: innovazione AI/ML su cloud ibrido con sicurezza...

Red Hat OpenShift AI 2.15: innovazione AI/ML su cloud ibrido con sicurezza e scalabilità

Red Hat ha annunciato la disponibilità dell’ultima versione di OpenShift AI, la piattaforma di intelligenza artificiale (AI) e machine learning (ML) basata su OpenShift che consente alle aziende di creare e distribuire applicazioni AI-enabled su scala attraverso il cloud ibrido.

Progettato per fornire maggiore flessibilità, tuning e capacità di tracciamento, Red Hat OpenShift AI 2.15 contribuisce ad accelerare l’innovazione AI/ML delle imprese e la coerenza operativa attraverso una più efficiente regolarità e una più solida sicurezza su scala tra cloud pubblici, datacenter e ambienti edge.

Secondo IDC, le aziende incluse nella classifica “Global 2000” di Forbes destineranno oltre il 40% della loro spesa IT core alle iniziative di AI. Inoltre, sempre secondo l’analista, entro il 2026 le imprese si avvarranno dell’AI generativa e delle tecnologie di automazione per incrementare la produttività di 1.000 miliardi di dollari. Red Hat ritiene che questo livello di investimenti necessiti di una piattaforma AI/ML in grado di gestire i cicli di vita dei modelli e di creare applicazioni di AI generativa, pur essendo sufficientemente flessibile da poter essere eseguita insieme ai carichi di lavoro e alle applicazioni tradizionali nel cloud ibrido.

“Le imprese stanno esplorando il nuovo mondo di funzionalità offerte dalle applicazioni e dai carichi di lavoro abilitati dall’intelligenza artificiale e ci aspettiamo che l’interesse e la domanda di piattaforme di supporto aumentino man mano che prendono forma delle strategie concrete. È imperativo per le aziende vedere i ritorni di questi investimenti attraverso una piattaforma di AI affidabile, scalabile e flessibile che funzioni ovunque i loro dati si trovino nel cloud ibrido”, afferma Joe Fernandes, vice president e general manager, AI business unit, Red Hat. “L’ultima versione di Red Hat OpenShift AI offre significativi miglioramenti in termini di scalabilità, prestazioni ed efficienza operativa, fungendo al contempo da pilastro per l’intero ciclo di vita del modello, rendendo possibile per le organizzazioni IT ottenere i vantaggi di una potente piattaforma di AI e mantenendo al contempo la capacità di costruire, distribuire ed eseguire su qualsiasi ambiente previsto dalle loro specifiche esigenze di business”.

Red Hat OpenShift AI 2.15 ha l’obiettivo di aiutare le organizzazioni ad affrontare le emergenti richieste di carichi di lavoro AI unitamente ai requisiti delle applicazioni mission-critical e cloud-native che oggi alimentano il loro business. Le moderne funzionalità presenti in quest’ultima versione includono:

  • Registro dei modelli, attualmente disponibile in anteprima tecnologica, che diventa il luogo principale per la visualizzazione e la gestione dei modelli registrati. Esso fornisce un ambiente strutturato e organizzato per la condivisione, la modifica, la distribuzione e la tracciabilità di modelli di AI predittiva e generativa, metadati e articoli di modello. È disponibile anche l’opzione che consente di disporre di più registri di modelli. Inoltre, Red Hat ha donato il progetto alla comunità di Kubeflow a titolo di sottoprogetto.
  • Rilevamento della dispersione dei dati per monitorare i cambiamenti nelle distribuzioni dei dati di input dei modelli ML impiegati. In questo modo, i data scientist possono rilevare quando i dati reali utilizzati per l’interferenza del modello si discostano significativamente da quelli impiegati per l’addestramento dello stesso. Il rilevamento della dispersione aiuta a verificare l’affidabilità del modello, monitorando continuamente i dati di input, mantenendolo allineato con i dati del mondo reale e contribuendo a garantire l’accuratezza delle sue previsioni nel tempo.
  • Strumenti di rilevamento dei bias per aiutare i data scientist e gli AI engineer a monitorare se i loro modelli risultano corretti e imparziali, un aspetto cruciale per stabilire la fiducia nei confronti dei modelli. Questi strumenti non solo aiutano a capire se sono imparziali sulla base dei dati di addestramento, ma osservano anche la loro equità durante le implementazioni nel mondo reale. Questi tool sono stati integrati nella comunità open source TrustyAI che fornisce un kit di strumenti diversificati per lo sviluppo e l’implementazione responsabile dell’AI.
  • La regolazione efficiente con LoRA utilizza adattatori a basso grado per consentire una regolazione più efficiente degli LLM, come Llama 3, permettendo alle organizzazioni di scalare i carichi di lavoro AI e riducendo al contempo i costi e il consumo di risorse. Ottimizzando l’addestramento e la messa a punto dei modelli in ambienti cloud nativi, la soluzione migliora sia le prestazioni che la flessibilità, rendendo l’implementazione dell’AI più accessibile e scalabile.
  • Il supporto di NVIDIA NIM, ovvero una serie di microservizi di interfaccia di facile utilizzo che accelerano l’erogazione di applicazioni di gen AI. L’integrazione di NIM, parte della piattaforma software NVIDIA AI Enterprise, aiuterà ad accelerare le implementazioni di AI generativa e a supportare un’ampia gamma di modelli di intelligenza artificiale per offrire inferenza scalabile in sede o nel cloud tramite interfacce API.
  • Le GPU di AMD offrono l’accesso a un’immagine del workbench AMD ROCm per lo sviluppo di modelli mediante il loro utilizzo. La nuova funzionalità consente inoltre di accedere a immagini che possono essere utilizzate per i casi d’uso di servizio e di addestramento/tuning con le GPU di AMD. Questo supporto offre alle organizzazioni ulteriori opzioni di utilizzo di questi processori per migliorare le prestazioni delle attività ad alta intensità di calcolo.

“Le organizzazioni sono alla ricerca di nuove soluzioni semplificate per implementare rapidamente le applicazioni di intelligenza artificiale. L’integrazione di NVIDIA NIM con Red Hat OpenShift AI 2.15 migliora le prestazioni e la scalabilità full-stack negli ambienti di cloud ibrido, aiutando i team di sviluppo e IT a gestire in modo efficiente e sicuro e ad accelerare le distribuzioni di AI generativa”, sostiene Justin Boitano, vice president, enterprise AI software, NVIDIA.

Ampliamento delle funzioni di addestramento e test dell’intelligenza artificiale

Red Hat OpenShift AI 2.15 migliora le pipeline di data science e il tracking degli esperimenti, consentendo agli esperti di gestire, confrontare e analizzare più facilmente le pipeline raggruppate in una struttura lineare. La piattaforma offre anche la regolazione degli iperparametri con Ray Tune, aggiungendo algoritmi di ottimizzazione avanzati per migliorare la precisione e addestrare i modelli in modo più efficiente. Le immagini dei container di base per i cluster Ray sono ora incluse nella versione aggiornata di Red Hat OpenShift AI, e i lavori di training e tuning possono essere pianificati su carichi di lavoro distribuiti nel cluster per accelerare i lavori e massimizzare il loro utilizzo.

Disponibilità

Red Hat OpenShift 2.15 sarà disponibile a partire da metà novembre 2024. Per ulteriori informazioni su funzionalità aggiuntive, miglioramenti, correzioni di bug e sulle modalità di aggiornamento alla versione più recente, è possibile consultare il sito di riferimento.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php