Home Aziende Ibm IBM annuncia la disponibilità su watsonx del modello di AI open source...

IBM annuncia la disponibilità su watsonx del modello di AI open source Mistral

IBM annuncia la disponibilità su watsonx del modello di AI open source Mistral, che amplia la scelta di modelli per aiutare le imprese a scalare l’AI con fiducia e flessibilità

IBM ha annunciato oggi la disponibilità del noto LLM (large language model) open-source Mixtral-8x7B, sviluppato da Mistral AI, sulla sua piattaforma di dati e AI watsonx, nell’ottica di un continuo impegno ad ampliare le funzionalità per aiutare i clienti a innovare con i foundation model propri di IBM e quelli di una gamma di provider open source.

IBM offre una versione ottimizzata di Mixtral-8x7b che, nei test interni, è stato in grado di aumentare la velocità di elaborazione dati – o la quantità di dati che può essere elaborata in un determinato periodo di tempo – del 50% rispetto al modello base. Ciò potrebbe potenzialmente ridurre la latenza del 35-75%, a seconda della dimensione del batch, accelerando il tempo per ottenere gli insight. Tale risultato viene raggiunto grazie a un processo noto come quantizzazione, che riduce la dimensione del modello e i requisiti di memoria per gli LLM e, di conseguenza, può accelerare l’elaborazione per contribuire a ridurre i costi e il consumo di energia.

La disponibilità di Mixtral-8x7B amplia la strategia multi-modello e aperta di IBM per andare incontro alle esigenze dei clienti e offrire loro scelta e flessibilità per eseguire la scalabilità delle soluzioni AI durante l’intero processo. Grazie alla ricerca e allo sviluppo dell’AI sul quale sta lavorando da decenni, alla collaborazione aperta con Meta e Hugging Face e alle partnership con i leader del settore, IBM sta ampliando la propria offerta di soluzioni di AI e il proprio portafoglio di modelli watsonx.ai, introducendo nuove capacità, linguaggi e modalità.

La scelta di IBM di foundation model pronti per le imprese all’interno della piattaforma watsonx AI, permette ai clienti di utilizzare l’AI generativa per ottenere nuovi insight, efficienze e creare nuovi modelli di business basati su principi di affidabilità. IBM consente ai clienti di selezionare il giusto modello per ciascun progetto tenendo conto delle esigenze in termini di prezzo/prestazioni in aree specifiche, come ad esempio in ambito finanza.

Mixtral-8x7B è stato costruito utilizzando la combinazione di modellazione Sparse – una tecnica innovativa che trova e utilizza solo le parti più essenziali dei dati per creare modelli più efficienti – e la tecnica Mixture-of-Experts, che combina diversi modelli (“esperti”) in grado di risolvere specifiche problematiche. Il modello Mixtral-8x7B è ben noto per la sua capacità di elaborare e analizzare rapidamente grandi quantità di dati per fornire insight pertinenti al contesto.

Kareem Yusuf
Kareem Yusuf

“I clienti chiedono scelta e flessibilità per implementare modelli che si adattino al meglio ai loro specifici progetti e requisiti”, ha dichiarato Kareem Yusuf, Ph.D, Senior Vice President, Product Management & Growth, IBM Software. “Mixtral-8x7B e altri modelli su watsonx ci permettono di offrire loro più scelta nelle modalità di implementazione dell’AI, ma anche di favorire la creazione di un solido ecosistema di sviluppatori di AI e leader aziendali che promuovano l’innovazione in diversi settori e domini, attraverso strumenti e tecnologie”.

Questa settimana, IBM ha annunciato anche la disponibilità di ELYZA-japanese-Llama-2-7b, un modello LLM giapponese open-source di ELYZA Corporation, su watsonx. IBM offre, all’interno della piattaforma watsonx,  anche i modelli open-source di Meta Llama-2-13B-chat e Llama-2-70B-chat e altri di terze parti. Inoltre, nei prossimi mesi è prevista l’introduzione in watsonx di nuovi modelli.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php