Amazon Web Services (AWS) ha annunciato nuove innovazioni nel suo portafoglio di servizi di machine learning per rendere l’AI generativa più accessibile ai suoi clienti.
Le premesse perché il machine learning (ML) diventasse una tecnologia imprescindibile esistono da decenni, sottolinea AWS, ma le ultime innovazioni – come una migliore capacità di elaborazione scalabile, la proliferazione di dati e il rapido progresso delle tecnologie ML – hanno reso possibile una vera accelerazione dell’adozione di ML e AI in tutti i settori economici.
Proprio di recente, le applicazioni di intelligenza artificiale generativa come ChatGPT hanno catturato l’attenzione, a dimostrazione di come siamo davvero a un punto di svolta entusiasmante nell’adozione su larga scala del ML.
Per facilitare questo processo e permettere alle imprese di reinventare la maggior parte delle loro operazioni con l’AI generativa, AWS ha annunciato una serie di innovazioni.
Amazon Bedrock: Costruire e scalare facilmente applicazioni di AI generativa
Amazon Bedrock è un nuovo servizio per costruire e scalare applicazioni di AI generativa, vale a dire applicazioni in grado di generare testo, immagini, audio e dati sintetici in risposta a un prompt.
Amazon Bedrock offre ai clienti un facile accesso ai foundation models (FM) – modelli di machine learning di grandi dimensioni su cui si basa l’AI generativa – dei migliori fornitori di startup AI e l’accesso esclusivo ai servizi Titan sviluppati da AWS.
Con Amazon Bedrock i clienti AWS hanno la flessibilità e la possibilità di utilizzare i modelli migliori per le loro esigenze specifiche.
Istanze Amazon EC2 Inf2 alimentate dai chip AWS Inferentia2
Con la disponibilità generale di istanze Amazon EC2 Inf2 alimentate dai chip AWS Inferentia2, Amazon Web Services punta alla riduzione dei costi di esecuzione dei carichi di lavoro dell’AI generativa.
I chip AWS Inferentia offrono la massima efficienza energetica e il costo più basso per l’esecuzione di carichi di lavoro di inferenza dell’AI generativa impegnativi (come l’esecuzione di modelli e la risposta a query in produzione) su scala.
La riduzione dei costi e dei consumi energetici rende l’intelligenza artificiale generativa più accessibile a un’ampia gamma di clienti.
Nuove istanze Trn1n, alimentate dai chip AWS Trainium
Un’ulteriore novità è nel silicio personalizzato per addestrare i modelli più velocemente.
Le nuove istanze Trn1n (la risorsa server in cui avviene l’elaborazione e che, in questo caso, viene eseguita sui chip Trainium personalizzati di AWS) offrono un’enorme capacità di rete, fondamentale per addestrare questi modelli in modo rapido ed efficiente.
Gli sviluppatori saranno così in grado di addestrare i modelli in modo più rapido e meno dispendioso, portando in ultima analisi a un aumento dei servizi basati sui modelli di AI generativa.
Accesso gratuito ad Amazon CodeWhisperer per i singoli sviluppatori
Infine, l’assistenza in tempo reale per la codifica. Amazon CodeWhisperer utilizza l’AI generativa per fornire suggerimenti di codice in tempo reale, sulla base dei commenti dell’utente e del suo codice precedente.
I singoli sviluppatori possono accedere ad Amazon CodeWhisperer gratuitamente, senza limiti di utilizzo, ma sono disponibili anche opzioni a pagamento per l’uso professionale.