A dicembre, Google ha annunciato Gemini, il modello più capace e generale dell’azienda. Da dicembre, clienti selezionati come Samsung e Palo Alto Networks hanno creato sofisticati agent di intelligenza artificiale con i modelli Gemini in Vertex AI, sbloccando nuovi livelli di produttività, apprendimento personalizzato e altro ancora per i loro utenti.
Oggi, con nuovi aggiornamenti e una maggiore disponibilità, Google Cloud offre ai suoi clienti altri modelli Gemini.
Gemini 1.0 Pro, che Google descrive come il suo miglior modello per la scalabilità delle attività di intelligenza artificiale, è ora disponibile per tutti i clienti di Vertex AI. A partire da oggi, ogni sviluppatore può iniziare a costruire con Gemini Pro in produzione. 1.0 Pro offre il miglior equilibrio tra qualità, prestazioni e costi per la maggior parte delle attività di AI, come la generazione di contenuti, l’editing, la sintesi e la classificazione.
Gemini 1.0 Ultra, il modello più sofisticato e capace di svolgere compiti complessi di Google, è ora disponibile su Vertex AI per i clienti tramite allowlist. 1.0 Ultra è stato progettato per compiti complessi, mostrando prestazioni particolarmente elevate in aree quali istruzioni complesse, codice, ragionamento e multilinguismo, ed è ottimizzato per ottenere risultati di alta qualità.
Inoltre, Google ha introdotto una nuova generazione di modelli Gemini, con Gemini 1.5, che offre prestazioni migliori su un’architettura più efficiente.
Il primo modello Gemini 1.5 che Google Cloud sta rilasciando per i primi test è Gemini 1.5 Pro, ora in anteprima privata su Vertex AI. Si tratta di un modello multimodale di medie dimensioni, ottimizzato per la scalabilità su un’ampia gamma di compiti e con prestazioni simili a quelle di 1.0 Ultra, il modello più grande fino ad oggi.
Gemini 1.5 Pro introduce una nuova e rivoluzionaria funzione sperimentale di comprensione dei contesti lunghi: la finestra di contesto più lunga di qualsiasi modello foundation su larga scala, sottolinea Google. Le applicazioni possono ora gestire fino a 1 milione di token in produzione. Ciò significa che 1.5 Pro è in grado di elaborare grandi quantità di informazioni in una sola volta, tra cui 1 ora di video, 11 ore di audio, codebase con oltre 30.000 righe di codice o oltre 700.000 parole.
Finestre di contesto più ampie consentono ai modelli di fare riferimento a un maggior numero di informazioni, di cogliere il flusso narrativo, di mantenere la coerenza su passaggi più lunghi e di generare risposte più ricche di contesto.
Ad esempio, spiega Google Cloud, con Gemini 1.5 Pro, le aziende possono:
- Analizzare con precisione un’intera libreria di codice in un solo prompt, senza la necessità di mettere a punto il modello, comprendendo e ragionando su piccoli dettagli che potrebbero facilmente sfuggire a uno sviluppatore, come errori, inefficienze e incoerenze nel codice.
- Ragionare su documenti molto lunghi, dal confronto dei dettagli dei contratti alla sintesi e all’analisi di temi e opinioni in rapporti di analisi, studi di ricerca o persino una serie di libri.
- Analizzare e confrontare contenuti in ore di video, come trovare dettagli specifici in filmati sportivi o recuperare informazioni dettagliate da riassunti di riunioni video che supportano domande e risposte precise.
- Consentire ai chatbot di tenere lunghe conversazioni senza dimenticare i dettagli, anche per compiti complessi o per molte interazioni successive.
- Permettere esperienze iper-personalizzate, inserendo nel prompt le informazioni pertinenti dell’utente, senza la complessità di mettere a punto un modello.
L’API Gemini di Vertex AI consente agli sviluppatori di creare agent e applicazioni di intelligenza artificiale di nuova generazione, in grado di elaborare simultaneamente le informazioni attraverso modalità quali testo, codice, immagini e video. Per sfruttare la potenza dei modelli Gemini, le organizzazioni e gli sviluppatori devono essere in grado di creare applicazioni di livello enterprise e portarle in produzione.
Secondo il punto di vista di Google Cloud, Vertex AI è l’unica piattaforma cloud AI a offrire un’unica piattaforma integrata per i modelli, gli strumenti e l’infrastruttura, garantendo che una volta costruite le applicazioni con i modelli Gemini, queste possano essere facilmente distribuite e mantenute.
Con Vertex AI, i clienti possono innanzitutto personalizzazione dei modelli Gemini per specifiche esigenze aziendali. L’API Gemini di Vertex AI supporta ora la messa a punto basata su adattatori come Low-Rank Adaptation (LoRA), che consente agli sviluppatori di personalizzare il modello in modo efficiente e a basso costo. Altre tecniche di personalizzazione, come il reinforcement learning from human feedback (RLHF) e la distillation, verranno introdotte nell’API Gemini nei prossimi mesi.
Inoltre, possono aumentate le risposte dei modelli Gemini con informazioni aggiornate e consentire al modello di agire nel mondo reale. Grazie al supporto per il grounding completamente gestito, gli sviluppatori possono migliorare l’accuratezza e la pertinenza delle risposte del modello Gemini utilizzando i dati della propria azienda. Grazie al function calling, ora generalmente disponibile, gli sviluppatori possono collegare il modello Gemini ad API esterne per effettuare transazioni e altre azioni.
Ancora, possono gestire e scalare Gemini in produzione con strumenti appositamente creati per garantire che le applicazioni, una volta realizzate, possano essere facilmente distribuite e mantenute. Vertex AI offre uno strumento di valutazione automatica per i modelli di AI generativa: Automatic Side by Side. Questa funzione confronta le risposte dei modelli in base a una serie di criteri standard, aiutando gli sviluppatori a comprendere le prestazioni di Gemini e a regolare i prompt e il tuning in base a tale feedback.
È possibile sviluppare search agent e conversational agent con i modelli Gemini con competenze di codifica minime, in ore e giorni invece che in settimane e mesi:
- Vertex AI Search offre agli sviluppatori un sistema di generazione di risposte e recupero di informazioni di qualità pari a Google Search. Grazie al supporto dei modelli Gemini, gli sviluppatori possono creare applicazioni di ricerca con basi ancora più solide, citazioni accurate e risposte soddisfacenti.
- Vertex AI Conversation offre ora agli sviluppatori la possibilità di creare sofisticati chatbot conversazionali alimentati dall’intelligenza artificiale, utilizzando i modelli Gemini. Grazie alle capacità avanzate di ragionamento e multimodali di Gemini, gli sviluppatori possono creare esperienze di intelligenza artificiale conversazionale più personalizzate, informative e coinvolgenti nelle loro applicazioni.
Gli sviluppatori – sottolinea Google Cloud – possono creare applicazioni production grade su Vertex AI, che offre strumenti di livello enterprise per l’aumento, il test, la distribuzione e la gestione dei modelli. Inoltre, gli sviluppatori possono sperimentare i modelli Gemini con l’API in Google AI Studio, uno strumento gratuito per sviluppatori basato sul web per prototipare e lanciare rapidamente le applicazioni con una chiave API.