Come afferma NVIDIA, nell’ultimo anno, l’intelligenza artificiale generativa ha trasformato il modo in cui le persone vivono, lavorano e giocano, migliorando tutto, dalla scrittura alla creazione di contenuti, dai giochi all’apprendimento e alla produttività. Tutti gli appassionati e gli sviluppatori sono alla guida di questa tecnologia rivoluzionaria.
La prima puntata della serie la serie RTX AI Garage del blog di NVIDIA mette in evidenza gli annunci fatti questa settimana dall’azienda in occasione del CES, fra cui i nuovi modelli di fondazione AI disponibili sui PC NVIDIA RTX AI che portano gli umani digitali, la creazione di contenuti, la produttività e lo sviluppo a un livello decisamente superiore.
Questi modelli – offerti come microservizi NVIDIA NIM – sono alimentati dalle nuove GPU GeForce RTX Serie 50. Basate sull’architettura NVIDIA Blackwell, le GPU RTX Serie 50 offrono prestazioni fino a 3.352 trilioni di operazioni AI al secondo, 32 GB di VRAM e funzionalità di calcolo FP4, raddoppiando le prestazioni di inferenza AI e consentendo all’AI generativa di essere eseguita localmente con un ingombro di memoria ridotto.
NVIDIA ha anche presentato NVIDIA AI Blueprints – workflow di riferimento preconfigurati e facili da utilizzare per umani digitali, creazione di contenuti e altro ancora.
I microservizi NIM e AI Blueprints consentono agli appassionati e agli sviluppatori di costruire, iterare e offrire esperienze basate sull’intelligenza artificiale al PC in modo più rapido che mai. Il risultato è una nuova ondata di funzionalità pratiche e convincenti per gli utenti di PC.
Fast-Track IA con NVIDIA NIM
Ci sono due sfide fondamentali per portare i progressi dell’IA sui PC, afferma NVIDIA. In primo luogo, bisogna sottolineare che il ritmo della ricerca sull’IA è incalzante: ogni giorno compaiono nuovi modelli su piattaforme come Hugging Face, che ospita oltre un milione di modelli. Di conseguenza, le scoperte diventano rapidamente obsolete.
In secondo luogo, l’adattamento di questi modelli all’uso del PC è un processo complesso e ad alta intensità di risorse. Ottimizzarli per l’hardware del PC, integrarli con il software di intelligenza artificiale e collegarli alle applicazioni richiede un notevole sforzo di progettazione.
NVIDIA NIM aiuta a risolvere queste sfide offrendo modelli di intelligenza artificiale preconfezionati e all’avanguardia ottimizzati per i PC. Questi microservizi NIM abbracciano domini di modelli, possono essere installati attraverso un solo clic, dispongono di interfacce di programmazione delle applicazioni (API) per una facile integrazione e sfruttano il software NVIDIA AI e le GPU RTX per accelerare le prestazioni.
Al CES, NVIDIA ha annunciato una pipeline di microservizi NIM per i PC RTX AI, in grado di supportare casi d’uso che spaziano dai modelli linguistici di grandi dimensioni (LLM), ai modelli linguistici di visione, alla generazione di immagini, al parlato, dai modelli embedding per retrieval-augmented generation (RAG), all’estrazione di PDF e computer vision.
La nuova famiglia di modelli open Llama Nemotron offre un’elevata precisione in un’ampia gamma di compiti agenziali. Il modello Llama Nemotron Nano, che sarà offerto come microservizio NIM per i PC e le workstation RTX AI, eccelle in compiti di intelligenza artificiale agenziale come seguire istruzioni, chiamare funzioni, chattare, codificare e fare calcoli.
Presto gli sviluppatori potranno scaricare ed eseguire rapidamente questi microservizi sui PC Windows 11 utilizzando Windows Subsystem for Linux (WSL).
Per dimostrare come gli appassionati e gli sviluppatori possano utilizzare il NIM per creare agenti e assistenti AI, NVIDIA ha presentato in anteprima Project R2X, un avatar per PC abilitato alla visione in grado di mettere le informazioni a portata di mano dell’utente, di assisterlo con le applicazioni desktop e le videoconferenze, di leggere e riassumere i documenti e altro ancora. È possibile iscriversi per ricevere gli aggiornamenti su Project R2X.
Utilizzando i microservizi NIM, gli appassionati di IA possono saltare le complessità della cura dei modelli, dell’ottimizzazione e dell’integrazione del backend e concentrarsi sulla creazione e sull’innovazione di modelli di IA all’avanguardia.
Cosa c’è in un’API?
Un’API è il modo in cui un’applicazione comunica con una libreria software. Un’API definisce un insieme di “chiamate” che l’applicazione può effettuare alla libreria e ciò che l’applicazione può aspettarsi in cambio. Le API tradizionali per l’intelligenza artificiale richiedono molte impostazioni e configurazioni, rendendo le funzionalità dell’intelligenza artificiale più difficili da usare e ostacolando l’innovazione.
I microservizi NIM espongono API facili da usare e intuitive a cui un’applicazione può semplicemente inviare richieste e ottenere una risposta. Inoltre, sono progettati in base ai mezzi di input e output per i diversi tipi di modelli. Ad esempio, gli LLM prendono in input il testo e lo producono in output, i generatori di immagini convertono il testo in immagini, i riconoscitori vocali trasformano il parlato in testo e così via.
I microservizi sono progettati per integrarsi perfettamente con i principali framework di sviluppo e agenti di intelligenza artificiale, come AI Toolkit for VSCode, AnythingLLM, ComfyUI, Flowise AI, LangChain, Langflow e LM Studio. Gli sviluppatori possono scaricarle e distribuirle facilmente da build.nvidia.com.
Portando queste API su RTX, NVIDIA NIM accelererà l’innovazione dell’AI sui PC.
Gli appassionati potranno sperimentare una serie di microservizi NIM grazie alla prossima versione della demo tecnologica NVIDIA ChatRTX.
Bluprint per l’innovazione
Utilizzando modelli all’avanguardia, preconfezionati e ottimizzati per PC, gli sviluppatori e gli appassionati possono creare rapidamente progetti basati sull’IA. Facendo un ulteriore passo avanti, possono combinare più modelli di IA e altre funzionalità per creare applicazioni complesse come umani digitali, generatori di podcast e assistenti alle applicazioni.
Gli NVIDIA AI Blueprints, costruiti su microservizi NIM, sono implementazioni di riferimento per complessi workflow di AI. Aiutano gli sviluppatori a collegare fra loro diversi componenti, fra cui librerie, kit di sviluppo software e modelli di intelligenza artificiale, in un’unica applicazione.
Gli AI Blueprints includono tutto ciò di cui uno sviluppatore ha bisogno per costruire, eseguire, personalizzare ed estendere il workflow di riferimento, che comprende l’applicazione di riferimento e il codice sorgente, i dati di esempio e la documentazione per la personalizzazione e l’orchestrazione dei diversi componenti.
Al CES, NVIDIA ha annunciato due AI Blueprints per RTX: uno per PDF to podcast, che consente agli utenti di generare un podcast da qualsiasi PDF, e un altro per 3D-guided generative AI, che si basa su FLUX.1 [dev] e dovrebbe essere offerto come microservizio NIM, garantendo agli artisti un maggiore controllo sulla generazione di immagini basate su testo.
Con AI Blueprints, gli sviluppatori possono passare rapidamente dalla sperimentazione dell’IA allo sviluppo dell’IA per flussi di lavoro all’avanguardia su PC e workstation RTX.
Costruite per l’IA generativa
Le nuove GPU GeForce RTX Serie 50 sono costruite appositamente per affrontare le complesse sfide dell’IA generativa, grazie ai Tensor Core di quinta generazione con supporto FP4, alla memoria G7 più veloce e a un processore di gestione dell’IA per un multitasking efficiente tra IA e flussi di lavoro creativi.
La serie GeForce RTX 50 aggiunge il supporto FP4 per contribuire a portare migliori prestazioni e più modelli sui PC. FP4 è un metodo di quantizzazione inferiore, simile alla compressione dei file, che riduce le dimensioni dei modelli. Rispetto a FP16 – il metodo predefinito che caratterizza la maggior parte dei modelli – FP4 utilizza meno della metà della memoria e le GPU della serie 50 offrono prestazioni più che doppie rispetto alla generazione precedente. Questo risultato può essere ottenuto praticamente senza perdita di qualità grazie ai metodi di quantizzazione avanzati offerti da NVIDIA TensorRT Model Optimizer.
Ad esempio, sottolinea NVIDIA, il modello FLUX.1 [dev] di Black Forest Labs a FP16 richiede oltre 23 GB di VRAM, il che significa che può essere supportato solo dalle GPU GeForce RTX 4090 e professionali. Con FP4, FLUX.1 [dev] richiede meno di 10 GB, quindi può essere eseguito localmente su più GPU GeForce RTX.
Con una GeForce RTX 4090 con FP16, il modello FLUX.1 [dev] può generare immagini in 15 secondi con 30 passaggi. Con una GeForce RTX 5090 con FP4, le immagini possono essere generate in poco più di cinque secondi.
Iniziare con le nuove API AI per PC
I microservizi NVIDIA NIM e gli AI Blueprints dovrebbero essere disponibili a partire dal mese prossimo, con il supporto hardware iniziale per le GeForce RTX Serie 50, GeForce RTX 4090 e 4080 e le GPU professionali NVIDIA RTX 6000 e 5000. Altre GPU saranno supportate in futuro.
I PC RTX AI pronti per il NIM – annuncia NVIDIA – dovrebbero essere disponibili presso Acer, ASUS, Dell, GIGABYTE, HP, Lenovo, MSI, Razer e Samsung e presso i costruttori di sistemi locali Corsair, Falcon Northwest, LDLC, Maingear, Mifcon, Origin PC, PCS e Scan.
Le GPU e i laptop della serie GeForce RTX 50 offrono prestazioni sorprendenti, alimentano esperienze AI trasformative e consentono ai creatori di completare i flussi di lavoro in tempi record. È possibile riascoltare il keynote del CEO di NVIDIA Jensen Huang per saperne di più sulle novità di NVIDIA in materia di AI svelate al CES.