In occasione della conferenza annuale THINK, IBM ha annunciato diversi nuovi aggiornamenti della piattaforma watsonx a un anno dalla sua introduzione, oltre a nuove funzionalità per i dati e l’automazione progettate per rendere l’intelligenza artificiale (AI) più aperta, conveniente e flessibile per le aziende.
“Crediamo fermamente nel portare l’innovazione aperta nell’AI. Vogliamo utilizzare la potenza dell’open source per fare con l’AI ciò che è stato fatto con successo con Linux e OpenShift“, ha dichiarato Arvind Krishna, CEO di IBM. “Open significa scelta. Aperto significa più occhi sul codice, più menti sui problemi e più mani sulle soluzioni. Per far sì che qualsiasi tecnologia acquisti velocità e diventi onnipresente, è necessario bilanciare tre cose: concorrenza, innovazione e sicurezza. L’open source è un ottimo modo per raggiungere tutti e tre gli obiettivi“.
Proseguendo nel suo impegno verso l’ecosistema dell’AI open-source, IBM ha reso open-source una famiglia dei suoi language e code model Granite più avanzati e performanti. Con l’open-sourcing di questi modelli, IBM invita i clienti, gli sviluppatori e gli esperti globali a basarsi su questi punti di forza e a spingere i confini di ciò che l’AI può raggiungere negli ambienti aziendali.
Disponibili ora con licenza Apache 2.0 su Hugging Face e GitHub, i modelli Granite open-source si distinguono per il processo di sviluppo, la qualità, la trasparenza e l’efficienza, sottolinea l’azienda. I modelli di codice Granite variano da 3B a 34B parametri e sono disponibili nelle varianti base e instruction-following, adatte a compiti come la modernizzazione di applicazioni complesse, la generazione di codice, la correzione di bug, la spiegazione e la documentazione del codice, la manutenzione di repository e altro ancora. I modelli di codice, addestrati su 116 linguaggi di programmazione, raggiungono costantemente lo stato dell’arte tra gli LLM di codice open-source in vari compiti legati al codice, dichiara IBM.
IBM e Red Hat hanno inoltre lanciato di recente InstructLab, che l’azienda descrive come un approccio rivoluzionario per promuovere l’innovazione open-source intorno agli LLM.
La metodologia InstructLab consente lo sviluppo continuo di modelli di base attraverso contributi incrementali costanti, proprio come lo sviluppo del software funziona da decenni nell’open source. Con InstructLab, gli sviluppatori possono costruire modelli specifici per i loro domini o settori di business con i loro dati, in modo da poter vedere il valore diretto dell’AI piuttosto che solo i fornitori di modelli. IBM intende sfruttare questi contributi open-source per portare ulteriore valore ai propri clienti attraverso integrazioni con watsonx.ai e la nuova soluzione Red Hat Enterprise Linux AI (RHEL AI).
RHEL AI comprende una versione enterprise-ready di InstructLab, i modelli Granite open-source di IBM, e la piattaforma Linux enterprise leader a livello mondiale per semplificare l’implementazione dell’AI in ambienti infrastrutturali ibridi.
IBM Consulting sta inoltre lanciando una pratica per aiutare i clienti a sfruttare InstructLab con i propri dati proprietari per addestrare modelli di IA specifici per ogni scopo, che possono essere scalati per adattarsi meglio ai requisiti di costo e prestazioni delle esigenze aziendali.
IBM presenta una nuova classe di assistenti Watsonx
Si stima che questa nuova ondata di innovazione dell’AI – mette in evidenza IBM – ha il potenziale per sbloccare 4.000 miliardi di dollari di benefici economici annuali in tutti i settori. Tuttavia, l’annuale Global AI Adoption Index di IBM ha recentemente rilevato che mentre il 42% delle aziende di dimensioni enterprise (> 1.000 dipendenti) intervistate ha implementato l’AI nella propria attività, un altro 40% di quelle aziende che stanno esplorando o sperimentando l’AI deve ancora implementare i propri modelli. Per le aziende bloccate nella sandbox, il 2024 sarà l’anno del superamento delle barriere all’ingresso, come il divario di competenze, la complessità dei dati e, forse più importante, la fiducia, afferma IBM.
Per affrontare queste sfide, IBM sta annunciando diversi aggiornamenti e miglioramenti alla sua famiglia di assistenti watsonx, oltre a una funzionalità in arrivo in watsonx Orchestrate per aiutare i clienti a creare i propri assistenti AI in tutti i settori.
I nuovi assistenti AI includono watsonx Code Assistant for Enterprise Java Applications (disponibilità prevista per ottobre 2024), watsonx Assistant for Z per trasformare il modo in cui gli utenti interagiscono con il sistema per trasferire rapidamente conoscenze e competenze (disponibilità prevista per giugno 2024) e un’espansione del servizio watsonx Code Assistant for Z con spiegazione del codice per aiutare i clienti a comprendere e documentare le applicazioni attraverso il linguaggio naturale (disponibilità prevista per giugno 2024).
IBM sta poi ampliando la sua offerta di GPU NVIDIA per offrire ora GPU NVIDIA L40S e NVIDIA L4 Tensor Core, oltre al supporto per Red Hat Enterprise Linux AI (RHEL AI) e OpenShift AI per aiutare le imprese e gli sviluppatori a soddisfare le esigenze dell’AI e di altri carichi di lavoro mission-critical. Inoltre, per aiutare i clienti ad accelerare il time to value dell’AI, IBM sta utilizzando architetture distribuibili per watsonx per consentire una rapida implementazione dell’AI, fornendo al contempo alle imprese funzionalità di sicurezza e conformità per aiutarle a proteggere i loro dati e a gestire i controlli di conformità.
Inoltre, IBM ha annunciato diversi prodotti e funzionalità per i dati alimentati dall’AI generativa, nuovi e in arrivo, per aumentare il modo in cui le organizzazioni osservano, governano e ottimizzano i loro dati sempre più robusti e complessi per i carichi di lavoro dell’AI.
In anteprima, la nuova visione e le nuove funzionalità per l’automazione basata sull’AI
Il cloud ibrido e l’intelligenza artificiale stanno trasformando il modo in cui le aziende operano, evidenzia IBM. Oggi un’azienda media gestisce più ambienti cloud – pubblici e privati – e circa 1.000 app, ognuna con molteplici dipendenze. Inoltre, gestisce petabyte di dati. Con l’AI generativa che dovrebbe guidare fino a 1 miliardo di app entro il 2028, l’automazione non è più un’opzione, afferma IBM: è il modo in cui le aziende risparmieranno tempo, risolveranno i problemi e prenderanno decisioni più rapidamente.
IBM sta affrontando queste sfide offrendo una serie di funzionalità di automazione alimentate dall’AI che consentiranno ai CIO di passare dalla gestione proattiva dei loro ambienti IT all’automazione predittiva alimentata dall’AI. L’automazione basata sull’AI sarà uno strumento essenziale per migliorare la velocità, le prestazioni, la scalabilità, la sicurezza e l’efficienza dei costi dell’infrastruttura aziendale.
Oggi, il portafoglio di prodotti IBM per l’automazione, il networking, i dati, le applicazioni e la gestione dell’infrastruttura aiuta le aziende a gestire ambienti IT sempre più complessi. Per la gestione delle attività tecnologiche, Apptio consente alle aziende di prendere decisioni informate e basate sui dati relativi ai loro investimenti, facendo chiarezza sulle spese tecnologiche e sul modo in cui queste generano valore per il business, consentendo alle aziende di rispondere rapidamente alle mutevoli condizioni del mercato. I clienti possono inoltre combinare Apptio con la potenza di Instana per l’osservabilità automatizzata e Turbonomic per l’ottimizzazione delle prestazioni, per aiutare i clienti ad allocare in modo efficiente le risorse e a controllare la spesa IT attraverso una maggiore visibilità e approfondimenti in tempo reale, consentendo loro di dedicare più tempo all’implementazione e alla scalabilità dell’intelligenza artificiale per promuovere nuove iniziative innovative.
Per completare questi prodotti, IBM ha recentemente annunciato l’intenzione di acquisire HashiCorp, che aiuta le organizzazioni ad automatizzare gli ambienti multi-cloud e ibridi con l’Infrastructure Lifecycle Management e il Security Lifecycle Management con prodotti quali Terraform, Vault e altri. Con HashiCorp, i clienti possono passare e operare facilmente in ambienti multi-cloud e hybrid cloud.
Ora, al THINK, IBM continua a far progredire il suo portafoglio di automazione all’avanguardia presentando in anteprima un nuovo strumento alimentato dall’intelligenza artificiale generativa chiamato IBM Concert, che sarà generalmente disponibile nel giugno 2024. IBM Concert fungerà da “centro nevralgico” della tecnologia e delle operazioni di un’azienda.
Alimentato dall’AI di watsonx, IBM Concert fornirà approfondimenti basati sull’AI generativa su tutti i portafogli di applicazioni dei clienti per identificare, prevedere e suggerire soluzioni ai problemi. Il nuovo strumento si integra nei sistemi esistenti dei clienti, utilizzando l’intelligenza artificiale generativa per connettersi con i dati provenienti dall’infrastruttura cloud, dai repository dei sorgenti, dalle pipeline CI/CD e da altre soluzioni di gestione delle applicazioni esistenti per creare una visione dettagliata delle applicazioni collegate.
Consentendo ai clienti di eliminare le attività non necessarie e di accelerarne altre, Concert è progettato per rendere i team più informati, in modo che possano essere veloci e reattivi nell’affrontare e risolvere i problemi prima che si verifichino. Inizialmente Concert si concentrerà sull’aiutare gli owner delle applicazioni, gli SRE e i leader IT ad acquisire informazioni, a prevenire e ad affrontare più rapidamente i problemi legati alla gestione del rischio applicativo e della conformità.
IBM amplia l’accesso dell’ecosistema a watsonx, aggiungendo modelli di terze parti
IBM continua a promuovere un forte ecosistema di partner per offrire ai clienti scelta e flessibilità, portando i modelli di terze parti su watsonx, consentendo alle principali aziende di software di incorporare le funzionalità di watsonx nelle loro tecnologie e offrendo le competenze di IBM Consulting per la trasformazione aziendale.
IBM Consulting ha rapidamente ampliato la propria esperienza globale di AI generativa, con oltre 50.000 professionisti certificati nelle tecnologie IBM e dei partner strategici. L’ecosistema di partner dell’azienda, grandi e piccoli, sta aiutando i clienti ad adottare e scalare l’AI su misura nelle loro aziende.
- AWS: IBM e AWS collaborano per unire Amazon SageMaker e watsonx.governance su AWS. Disponibile da subito, questo prodotto fornirà ai clienti di Amazon SageMaker funzionalità avanzate di governance dell’AI per i loro modelli di apprendimento automatico predittivo e di AI generativa. I clienti possono ora governare, monitorare e gestire i loro modelli su tutte le piattaforme, semplificando i processi di gestione del rischio e di conformità per le loro operazioni di AI.
- Adobe: IBM e Adobe stanno collaborando sul cloud ibrido e sull’AI, portando Red Hat OpenShift e watsonx su Adobe Experience Platform e stanno esplorando la possibilità di rendere watsonx.ai e Adobe Acrobat AI Assistant disponibili on-prem e su cloud privato. IBM sta inoltre introducendo un nuovo servizio di consulenza per promuovere l’adozione di Adobe Express da parte dei clienti. La disponibilità di queste funzionalità è prevista per il 2H24.
- Meta: IBM ha annunciato la disponibilità di Meta Llama 3 – la nuova generazione del modello linguistico aperto di Meta – su watsonx per aiutare le imprese a innovare i loro percorsi di intelligenza artificiale. L’aggiunta di Llama 3 si basa sulla collaborazione tra IBM e Meta per promuovere l’innovazione aperta per l’AI. Le due aziende hanno lanciato l’AI Alliance, un gruppo di organizzazioni leader in ambito industriale, startup, accademico, di ricerca e governativo, alla fine dello scorso anno, che da allora è cresciuto fino a contare più di 100 membri e collaboratori.
- Microsoft: IBM annuncia che la piattaforma di AI e dati watsonx è supportata da IBM per l’esecuzione su Microsoft Azure e disponibile per l’acquisto attraverso IBM e l’ecosistema di business partner come soluzione gestita dal cliente su Azure Red Hat OpenShift (ARO).
- Mistral: IBM annuncia l’intenzione di creare una nuova partnership strategica con Mistral AI per portare i suoi ultimi modelli commerciali sulla piattaforma watsonx, compreso il modello leader Mistral Large, che l’azienda prevede di rendere disponibile nel 2Q24. IBM si augura di collaborare con Mistral AI per l’innovazione aperta, basandosi sul lavoro di entrambe le aziende nella comunità open-source.
- Palo Alto Networks: IBM ha ampliato la sua partnership con Palo Alto per offrire congiuntamente offerte di sicurezza basate sull’intelligenza artificiale e diverse iniziative volte a migliorare i risultati della sicurezza per i clienti.
- Salesforce: IBM e Salesforce stanno valutando la possibilità di rendere disponibile la serie di modelli IBM Granite entro la fine dell’anno per l’utilizzo della piattaforma Salesforce Einstein 1, con l’obiettivo di fornire ai clienti l’accesso a un maggior numero di modelli per migliorare il processo decisionale nei casi di utilizzo del CRM basato sull’AI.
- SAP: IBM Consulting e SAP stanno inoltre collaborando per trovare il modo di aiutare un maggior numero di clienti ad accelerare il loro percorso nel cloud sfruttando RISE con SAP, in modo che possano realizzare i vantaggi trasformativi dell’AI generativa per il business nel cloud. Questo lavoro mira ad ampliare la collaborazione tra IBM e SAP per l’integrazione della tecnologia IBM Watson AI nelle soluzioni SAP. Nell’ambito di questa iniziativa con SAP, si prevede che la serie IBM Granite Model sarà accessibile per l’uso in tutto il portafoglio di soluzioni e applicazioni cloud di SAP, che si basa sull’hub di AI generativa in SAP AI Core.
- SDAIA: IBM ha lanciato il modello arabo “ALLaM” della Saudi Data and Artificial Intelligence Authority (SDAIA) su watsonx, aggiungendo nuove funzionalità linguistiche alla piattaforma, tra cui la capacità di comprendere diversi dialetti arabi.