Home Aziende Aws Amazon Bedrock: ecco le ultime innovazioni di AWS per l’AI generativa aziendale

Amazon Bedrock: ecco le ultime innovazioni di AWS per l’AI generativa aziendale

Amazon Web Services (AWS), una società di Amazon.com, ha annunciato le ultime innovazioni di Amazon Bedrock che offrono ai clienti un modo semplice, veloce e sicuro per sviluppare applicazioni ed esperienze avanzate di intelligenza artificiale generativa (AI).

Decine di migliaia di clienti – sottolinea AWS – hanno già scelto Amazon Bedrock come base per la loro strategia di AI generativa perché offre loro l’accesso a una ampia selezione di modelli foundation (FM) di AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI e Amazon, insieme alle funzionalità e alla sicurezza enterprise di cui hanno bisogno per sviluppare e implementare rapidamente applicazioni di AI generativa.

I potenti modelli di Amazon Bedrock sono offerti come servizio completamente gestito, in modo che i clienti non debbano preoccuparsi dell’infrastruttura sottostante, assicurando che le loro applicazioni funzionino con un’implementazione, una scalabilità e un’ottimizzazione continua senza soluzione di continuità.

Questi ultimi annunci – mette in evidenza AWS – consentono ai clienti di eseguire i propri modelli completamente gestiti su Amazon Bedrock, semplificano la ricerca del modello migliore per il proprio caso d’uso, facilitano l’applicazione di protezioni alle applicazioni di AI generativa e offrono una scelta ancora più ampia di modelli.

Le organizzazioni di tutti i settori, dalle startup in più rapida crescita alle imprese più attente alla sicurezza e alle istituzioni governative, utilizzano Amazon Bedrock per stimolare l’innovazione, aumentare la produttività e creare nuove esperienze per gli utenti finali, afferma AWS.

Amazon Bedrock sta vivendo una crescita esplosiva, con decine di migliaia di organizzazioni di tutte le dimensioni e di tutti i settori che lo scelgono come base per la loro strategia di AI generativa, perché possono utilizzarlo per passare dalla sperimentazione alla produzione in modo più rapido e semplice che altrove“, ha dichiarato il Dr. Swami Sivasubramanian, vice president of AI and Data di AWS. “I clienti sono entusiasti di Amazon Bedrock perché offre sicurezza e privacy di livello aziendale, un’ampia scelta di modelli foundation all’avanguardia e il modo più semplice per creare applicazioni di AI generativa. Con gli annunci di oggi, continuiamo a innovare rapidamente per i nostri clienti raddoppiando il nostro impegno a fornire loro il set più completo di funzionalità e la scelta di modelli leader del settore, democratizzando ulteriormente l’innovazione dell’AI generativa su scala“.

La nuova funzionalità di importazione di modelli custom aiuta le aziende a portare i propri modelli personalizzati su Amazon Bedrock, riducendo i costi operativi e accelerando lo sviluppo delle applicazioni.

Oltre ad avere accesso ai modelli più potenti al mondo su Amazon Bedrock – da AI21 Labs, Amazon, Anthropic e Cohere, a Meta, Mistral AI e Stability AI – i clienti dell’healthcare, dei servizi finanziari e altri settori stanno sempre più spesso mettendo a frutto i propri dati personalizzando i modelli disponibili pubblicamente per i casi d’uso specifici del loro dominio. Quando le organizzazioni vogliono costruire questi modelli utilizzando i loro dati proprietari, si rivolgono in genere a servizi come Amazon SageMaker, che offre sofisticate funzionalità di training per addestrare un modello da zero o eseguire personalizzazioni avanzate su modelli disponibili pubblicamente come Llama, Mistral e Flan-T5.

Dal lancio del 2017, sottolinea AWS, Amazon SageMaker è diventato il luogo in cui vengono costruiti e addestrati gli FM ad alte prestazioni, tra cui Falcon 180, il più grande modello disponibile pubblicamente fino ad oggi. I clienti desiderano inoltre utilizzare tutti gli strumenti avanzati e integrati di Amazon Bedrock per l’AI generativa, come Knowledge Base, Guardrail, Agent e Model Evaluation, con i loro modelli custom, senza dover sviluppare da soli tutte queste funzionalità.

Con la funzionalità Custom Model Import di Amazon Bedrock, le organizzazioni possono ora importare e accedere ai propri modelli personalizzati come application programming interface (API) completamente gestita in Amazon Bedrock, offrendo una scelta senza precedenti nella creazione di applicazioni di intelligenza artificiale generativa. Con pochi clic, i clienti possono prendere i modelli personalizzati su Amazon SageMaker o altri strumenti e aggiungerli facilmente ad Amazon Bedrock. Una volta superato un processo di convalida automatizzato, possono accedere senza problemi al loro modello custom, come a qualsiasi altro su Amazon Bedrock, ottenendo tutti gli stessi vantaggi di cui godono oggi, tra cui una scalabilità senza soluzione di continuità e potenti funzionalità per salvaguardare le loro applicazioni, aderendo ai principi dell’AI responsabile, la possibilità di espandere la base di conoscenza di un modello con la retrieval augmented generation (RAG), creando facilmente agenti per completare compiti in più fasi ed eseguendo fine tuning per continuare a addestrare e perfezionare i modelli, senza dover gestire l’infrastruttura sottostante.

Con questa nuova funzionalità, AWS semplifica la scelta da parte delle aziende di una combinazione di modelli Amazon Bedrock e dei propri modelli custom tramite la stessa API. Ora Amazon Bedrock Custom Model Import è disponibile in preview e supporta tre delle architetture di modelli aperti più diffuse, Flan-T5, Llama e Mistral, e in futuro ne sono previste altre.

Model Evaluation aiuta i clienti a valutare, confrontare e selezionare il modello migliore per la loro applicazione. Con l’ampia gamma di modelli allo stato dell’arte, Amazon Bedrock aiuta le organizzazioni a soddisfare qualsiasi requisito di prezzo, prestazioni o capacità e consente loro di eseguire modelli da soli o in combinazione con altri. Tuttavia, la scelta del modello migliore per un caso d’uso specifico richiede ai clienti di trovare un delicato equilibrio tra precisione e prestazioni. Finora, le aziende dovevano dedicare innumerevoli ore all’analisi di come ogni nuovo modello potesse soddisfare i loro casi d’uso, limitando la velocità con cui potevano offrire esperienze di AI generativa trasformativa ai loro utenti finali.

Model Evaluation, ora disponibile, secondo AWS è il modo più veloce per le aziende di analizzare e confrontare i modelli su Amazon Bedrock, riducendo da settimane a ore il tempo dedicato alla valutazione dei modelli, in modo da poter portare più velocemente sul mercato nuove applicazioni ed esperienze. I clienti possono iniziare rapidamente selezionando criteri di valutazione predefiniti (ad esempio, accuratezza e robustezza) e caricando il proprio set di dati o la propria libreria di prompt, oppure scegliendo tra le risorse integrate e pubblicamente disponibili. Per i criteri soggettivi o per i contenuti che richiedono un giudizio sfumato, Amazon Bedrock consente ai clienti di aggiungere facilmente degli esseri umani al flusso di lavoro per valutare le risposte dei modelli in base a metriche specifiche del caso d’uso (ad esempio, rilevanza, stile e brand voice). Una volta terminato il processo di configurazione, Amazon Bedrock esegue le valutazioni e genera un report in modo che i clienti possano facilmente capire come il modello si è comportato in base ai loro criteri chiave e selezionare rapidamente i modelli migliori per i loro casi d’uso.

Con Guardrails for Amazon Bedrock, i clienti possono utilizzare la migliore tecnologia della categoria per implementare facilmente le protezioni per rimuovere informazioni personali e sensibili, volgarità, parole specifiche e bloccare i contenuti dannosi.

Affinché l’AI generativa diventi pervasiva in ogni settore, le organizzazioni devono implementarla in modo sicuro, affidabile e responsabile. Molti modelli utilizzano controlli integrati per filtrare i contenuti indesiderati e dannosi, ma la maggior parte dei clienti desidera personalizzare ulteriormente le proprie applicazioni di AI generativa in modo che le risposte rimangano pertinenti, si allineino alle policy aziendali e aderiscano ai principi dell’AI responsabile.

Guardrails per Amazon Bedrock, ora generalmente disponibile, offre una protezione di sicurezza all’avanguardia in aggiunta alle funzionalità native degli FM, aiutando i clienti a bloccare fino all’85% dei contenuti dannosi. AWS afferma che Guardrails è l’unica soluzione offerta da un top cloud provider che consente ai clienti di avere protezioni integrate e personalizzate in un’unica offerta, e funziona con tutti i modelli linguistici di grandi dimensioni (LLM) di Amazon Bedrock, così come con i modelli fine-tuned. Per creare un guardrail, i clienti devono semplicemente fornire una descrizione in linguaggio naturale che definisca gli argomenti negati nel contesto della loro applicazione. I clienti possono anche configurare soglie per filtrare aree come hate speech, insulti, linguaggio sessualizzato, prompt injection e violenza, nonché filtri per rimuovere informazioni personali e sensibili, volgarità o parole specifiche bloccate. Guardrails for Amazon Bedrock consente ai clienti di innovare in modo rapido e sicuro, fornendo un’esperienza utente coerente e standardizzando i controlli di sicurezza e privacy nelle applicazioni di intelligenza artificiale generativa.

Più scelta di modelli: introduzione di Amazon Titan Text Embeddings V2, disponibilità generale di Titan Image Generator e degli ultimi modelli di Cohere e Meta.

Esclusiva di Amazon Bedrock, i modelli Amazon Titan sono creati e pre-addestrati da AWS su dataset ampi e diversificati per una varietà di casi d’uso, con un supporto integrato per l’uso responsabile dell’AI. Oggi Amazon Bedrock continua a far crescere la famiglia Amazon Titan, offrendo ai clienti una scelta e una flessibilità ancora maggiori. Amazon Titan Text Embeddings V2, ottimizzato per lavorare con i casi d’uso RAG, è adatto a una serie di attività come il recupero di informazioni, i chatbot con domande e risposte e le raccomandazioni personalizzate. Per aumentare le risposte degli FM con dati aggiuntivi, molte organizzazioni si rivolgono alla RAG, una tecnica popolare di personalizzazione dei modelli in cui l’FM si collega a una fonte di conoscenza a cui può fare riferimento per aumentare le proprie risposte. Tuttavia, l’esecuzione di queste operazioni può richiedere un’elevata capacità di calcolo e di memorizzazione.

Il nuovo modello Amazon Titan Text Embeddings V2, in lancio la prossima settimana, riduce i costi di archiviazione e di calcolo, aumentando al contempo la precisione. Lo fa consentendo ai clienti embeddings flessibili, che riducono lo storage complessivo fino a quattro volte, riducendo in modo significativo i costi operativi, pur mantenendo il 97% dell’accuratezza per i casi d’uso RAG, superando le prestazioni di altri modelli leader, afferma AWS.

Ora generalmente disponibile, Amazon Titan Image Generator aiuta i clienti di settori come la pubblicità, l’e-commerce e i media e l’intrattenimento a produrre immagini di qualità da studio o a migliorare e modificare le immagini esistenti, a basso costo, utilizzando prompt in linguaggio naturale. Amazon Titan Image Generator applica anche un watermark invisibile a tutte le immagini che crea, aiutando a identificare le immagini generate dall’AI per promuovere lo sviluppo sicuro, protetto e trasparente della tecnologia AI e contribuire a ridurre la diffusione della disinformazione. Il modello può anche verificare l’esistenza del watermark, aiutando i clienti a capire se un’immagine è stata generata da Amazon Titan Image Generator.

Sono ora disponibili su Amazon Bedrock anche i modelli foundation Meta Llama 3 e, a breve, i modelli Command R e Command R+ di Cohere. Llama 3 è stato progettato per sviluppatori, ricercatori e aziende per costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. I modelli di Llama 3 sono una collezione di LLM pre-addestrati e instruction fine-tuned che supportano un’ampia gamma di casi d’uso. Sono particolarmente adatti per la sintesi e la classificazione di testi, l’analisi del sentiment, la traduzione linguistica e la generazione di codici. I modelli Command R e Command R+ di Cohere sono FM all’avanguardia che i clienti possono utilizzare per creare applicazioni di AI generativa di livello aziendale con funzionalità RAG avanzate, in 10 lingue, per supportare le loro operazioni di business globali.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php