NVIDIA e Amazon Web Services all’AWS re:Invent di Las Vegas hanno presentato nuove soluzioni progettate per accelerare le scoperte nel campo dell’intelligenza artificiale e della robotica e per semplificare la ricerca nello sviluppo del calcolo quantistico.
Tra gli annunci più importanti figurano la disponibilità di NVIDIA DGX Cloud su AWS e il potenziamento degli strumenti di AI, quantum computing e robotica.
NVIDIA DGX Cloud su AWS per l’intelligenza artificiale su scala
La piattaforma di computing AI NVIDIA DGX Cloud è ora disponibile attraverso le offerte private di AWS Marketplace, offrendo una soluzione ad alte prestazioni e completamente gestita per le aziende per l’addestramento e la personalizzazione di modelli AI.
DGX Cloud offre termini flessibili, una piattaforma completamente gestita e ottimizzata e l’accesso diretto agli esperti NVIDIA per aiutare le aziende a scalare rapidamente le proprie capacità di AI.
Leonardo.ai, parte della famiglia Canva, sta già utilizzando DGX Cloud su AWS per sviluppare strumenti di progettazione avanzati.
Data center AWS raffreddati a liquido con NVIDIA Blackwell
I server AI più recenti beneficiano del raffreddamento a liquido per raffreddare in modo più efficiente i chip di calcolo ad alta densità e ottenere migliori prestazioni ed efficienza energetica. AWS ha sviluppato soluzioni che forniscono un raffreddamento configurabile liquid-to-chip nei suoi data center.
La soluzione di raffreddamento annunciata ora integrerà perfettamente le capacità di raffreddamento ad aria e a liquido per i più potenti sistemi di supercomputing AI su scala rack come NVIDIA GB200 NVL72, nonché per gli switch di rete e i server di storage di AWS.
Questo design di raffreddamento flessibile e multimodale offre il massimo delle prestazioni e dell’efficienza per l’esecuzione di modelli di intelligenza artificiale e sarà utilizzato per la piattaforma NVIDIA Blackwell di prossima generazione, sottolinea l’azienda.
Blackwell sarà la base delle istanze Amazon EC2 P6, di DGX Cloud on AWS e di Project Ceiba.
NVIDIA promuove l’IA fisica con la simulazione robotica accelerata su AWS
NVIDIA sta anche espandendo la reach di NVIDIA Omniverse su AWS con NVIDIA Isaac Sim, ora in esecuzione su istanze Amazon EC2 G6e ad alte prestazioni accelerate dalle GPU NVIDIA L40S.
Disponibile da subito, questa applicazione di riferimento costruita su NVIDIA Omniverse consente agli sviluppatori di simulare e testare robot guidati dall’intelligenza artificiale in ambienti virtuali basati sulla fisica.
Uno dei numerosi workflow abilitati da Isaac Sim è la generazione di dati sintetici. Questa pipeline viene ora ulteriormente accelerata con l’infusione dei microservizi OpenUSD NIM, dalla creazione della scena all’aumento dei dati.
Aziende di robotica come Aescape, Cohesive Robotics, Cobot, Field AI, Standard Bots, Swiss Mile e Vention utilizzano Isaac Sim per simulare e convalidare le prestazioni dei loro robot prima della distribuzione.
Inoltre, Rendered.ai, SoftServe e Tata Consultancy Services utilizzano le capacità di generazione di dati sintetici di Omniverse Replicator e Isaac Sim per il bootstrap di modelli di IA di percezione che alimentano varie applicazioni robotiche.
NVIDIA BioNeMo su AWS per la scoperta avanzata di farmaci basata sull’AI
I microservizi NVIDIA BioNeMo NIM e gli AI Blueprints, sviluppati per migliorare la scoperta di farmaci, sono ora integrati in AWS HealthOmics, un servizio di calcolo e archiviazione di dati biologici completamente gestito e progettato per accelerare le scoperte scientifiche nella diagnostica clinica e nella scoperta di farmaci.
Questa collaborazione offre ai ricercatori l’accesso a modelli di intelligenza artificiale e a un’infrastruttura cloud scalabile, adatta ai flussi di lavoro per la scoperta di farmaci. Diverse aziende biotech utilizzano già NVIDIA BioNeMo su AWS per gestire le loro pipeline di ricerca e sviluppo.
Ad esempio, A-Alpha Bio, una società di biotecnologie con sede a Seattle, ha recentemente pubblicato uno studio su biorxiv che descrive uno sforzo di collaborazione con NVIDIA e AWS per sviluppare e distribuire un modello di AI per anticorpi chiamato AlphaBind.
Utilizzando AlphaBind tramite il framework BioNeMo su istanze Amazon EC2 P5 dotate di GPU NVIDIA H100 Tensor Core, A-Alpha Bio ha ottenuto un aumento di 12 volte della velocità di inferenza e ha elaborato oltre 108 milioni di chiamate di inferenza in due mesi.
Inoltre, SoftServe ha lanciato Drug Discovery, la sua soluzione di AI generativa realizzata con NVIDIA Blueprints, per consentire la scoperta di farmaci assistita da computer e lo sviluppo efficiente di farmaci. Questa soluzione è destinata a fornire flussi di lavoro più rapidi e sarà presto disponibile su AWS Marketplace.
AI Blueprint in tempo reale: opzioni pronte all’uso per video, cybersecurity e altro ancora
I più recenti AI Blueprints di NVIDIA sono disponibili per l’implementazione immediata su AWS, rendendo facilmente accessibili applicazioni in tempo reale come l’analisi delle vulnerabilità per la sicurezza dei container e gli agenti di ricerca e riepilogo dei video.
Gli sviluppatori possono facilmente integrare questi blueprint nei flussi di lavoro esistenti per accelerare le implementazioni.
Gli sviluppatori e le aziende possono utilizzare l’NVIDIA AI Blueprint per la ricerca e il riepilogo dei video per creare agenti di intelligenza artificiale visiva in grado di analizzare video in tempo reale o archiviati per rispondere alle domande degli utenti, generare riepiloghi e attivare avvisi per scenari specifici.
AWS ha collaborato con NVIDIA per fornire un’architettura di riferimento che applica l’NVIDIA AI Blueprint per l’analisi delle vulnerabilità al fine di aumentare le patch di sicurezza precoci nelle pipeline di integrazione continua sui servizi cloud-nativi di AWS.
NVIDIA CUDA-Q su Amazon Braket: il quantum computing messo in pratica
NVIDIA CUDA-Q è ora integrato con Amazon Braket per semplificare lo sviluppo del computing quantistico. Gli utenti di CUDA-Q possono utilizzare i processori quantistici di Amazon Braket, mentre gli utenti di Braket possono sfruttare i workflow accelerati dalle GPU di CUDA-Q per lo sviluppo e la simulazione.
La piattaforma CUDA-Q consente agli sviluppatori di creare applicazioni ibride quantistiche-classiche e di eseguirle su diversi tipi di processori quantistici, simulati e fisici.
Ora preinstallato su Amazon Braket, CUDA-Q fornisce una piattaforma di sviluppo senza soluzione di continuità per le applicazioni ibride quantistico-classiche, sbloccando un nuovo potenziale nella ricerca quantistica.
I fornitori di piattaforme aziendali e i leader della consulenza promuovono l’AI con NVIDIA su AWS
Le principali piattaforme software e gli integratori di sistemi globali stanno aiutando le aziende a scalare rapidamente le applicazioni di AI generativa realizzate con NVIDIA AI on AWS per promuovere l’innovazione in tutti i settori.
Cloudera sta utilizzando NVIDIA AI on AWS per migliorare la sua nuova soluzione di inferenza AI, aiutando Mercy Corps a migliorare la precisione e l’efficacia della sua tecnologia di distribuzione degli aiuti.
Cohesity ha integrato i microservizi NVIDIA NeMo Retriever nel suo assistente di ricerca conversazionale generativo basato sull’AI, Cohesity Gaia, per migliorare le prestazioni di richiamo della retrieval-augmented generation. I clienti di Cohesity che operano su AWS possono sfruttare l’integrazione di NeMo Retriever in Gaia.
DataStax ha annunciato che Wikimedia Deutschland sta applicando la DataStax AI Platform per rendere Wikidata disponibile agli sviluppatori come database vettoriale incorporato. La Datastax AI Platform è realizzata con NVIDIA NeMo Retriever e microservizi NIM ed è disponibile su AWS.
C-Suite AI di Deloitte supporta ora il software NVIDIA AI Enterprise, compresi i microservizi NVIDIA NIM e NVIDIA NeMo per casi d’uso specifici del CFO, fra cui l’analisi dei bilanci, la modellazione di scenari e l’analisi di mercato.
I notebook Quick Start RAPIDS sono ora disponibili su Amazon EMR
NVIDIA e AWS accelerano anche i carichi di lavoro di data science e data analytics con RAPIDS Accelerator for Apache Spark, che accelera i carichi di lavoro di analytics e machine learning senza alcuna modifica del codice e riduce i costi di elaborazione dei dati fino all’80%.
I notebook Quick Start per RAPIDS Accelerator for Apache Spark sono ora disponibili su Amazon EMR, Amazon EC2 e Amazon EMR on EKS. Questi notebook offrono un modo semplice per qualificare i lavori Spark ottimizzati per massimizzare le prestazioni di RAPIDS sulle GPU, il tutto all’interno di AWS EMR.
NVIDIA e AWS alimentano la prossima generazione di sistemi edge industriali
Le piattaforme NVIDIA IGX Orin e Jetson Orin si integrano ora perfettamente con AWS IoT Greengrass per semplificare l’implementazione e l’esecuzione di modelli di intelligenza artificiale all’edge e per gestire in modo efficiente flotte di dispositivi connessi su scala. Questa combinazione migliora la scalabilità e semplifica il processo di implementazione per le applicazioni industriali e robotiche.
Gli sviluppatori possono ora sfruttare la potenza dell’edge computing avanzato di NVIDIA con i servizi IoT di AWS, creando un ambiente sicuro e scalabile per macchine autonome e sensori intelligenti. Una guida getting started, realizzata da AWS, è ora disponibile per aiutare gli sviluppatori a mettere in pratica queste capacità.
L’integrazione sottolinea l’impegno di NVIDIA nella promozione di sistemi edge industriali enterprise-ready per consentire operazioni rapide e intelligenti in applicazioni reali.