Google Cloud e Hugging Face annunciano una nuova partnership strategica che consentirà agli sviluppatori di utilizzare l’infrastruttura di Google Cloud per tutti i servizi di Hugging Face, e permetterà di addestrare e integrare i modelli di Hugging Face su Google Cloud.
La partnership sostiene la missione di Hugging Face di democratizzare l’AI e, allo stesso tempo, promuove il supporto di Google Cloud nello sviluppo di un ecosistema di AI open source.
Con questa collaborazione, Google Cloud diventa un partner cloud strategico per Hugging Face e una risorsa privilegiata per i carichi di lavoro di addestramento e inferenza di Hugging Face. Gli sviluppatori potranno utilizzare facilmente l’infrastruttura ottimizzata per l’AI di Google Cloud, che include calcolo, unità di elaborazione tensoriale (TPU) e unità di elaborazione grafica (GPU) per addestrare e gestire modelli aperti e creare nuove applicazioni di AI generativa.
Google Cloud e Hugging Face lavoreranno insieme per aiutare gli sviluppatori a addestrare e fornire modelli di AI di grandi dimensioni in modo più rapido e conveniente su Google Cloud:
- Metteranno a disposizione degli sviluppatori nuove modalità di addestramento, perfezionamento e offerta di modelli Hugging Face con Vertex AI in pochi clic, direttamente dalla piattaforma Hugging Face, in modo da poter utilizzare facilmente i servizi MLOps end-to-end di Google Cloud per creare applicazioni AI di nuova generazione.
- Supporteranno i deployment di Google Kubernetes Engine (GKE), in modo che anche gli sviluppatori di Hugging Face possano addestrare, ottimizzare e distribuire i loro carichi di lavoro tramite un’infrastruttura “fai da te”, e scalare i modelli utilizzando i container di Deep Learning specifici per Hugging Face su GKE.
- Consentiranno a un maggior numero di sviluppatori open source l’accesso a Cloud TPU v5e, che offre prestazioni superiori fino a 2,5 volte per dollaro e una latenza per l’inferenza fino a 1,7 volte inferiore rispetto alle versioni precedenti.
- Aggiungeranno un supporto futuro per le VM A3, alimentate dalle GPU Tensor Core H100 di NVIDIA, le quali offrono un training tre volte più veloce e una larghezza di banda di rete 10 volte superiore rispetto alla generazione precedente.
- Utilizzeranno Google Cloud Marketplace per fornire una gestione e un servizio di fatturazione semplici per la piattaforma gestita da Hugging Face, che include Inference, Endpoints, Spaces, AutoTrain e altro.
“Google Cloud e Hugging Face condividono la stessa visione nel rendere l’AI generativa più accessibile e d’impatto per gli sviluppatori”, ha dichiarato Thomas Kurian, CEO di Google Cloud. “Questa partnership garantisce agli sviluppatori di Hugging Face l’accesso alla piattaforma AI di Google Cloud, Vertex AI, insieme alla nostra solida infrastruttura, che può accelerare la prossima generazione di servizi e applicazioni di AI”.
“Dal progetto Transformers originale al T5 e al Vision Transformer, Google è stata in prima linea nel progresso dell’AI e nel movimento per l’open science”, ha dichiarato Clement Delangue, CEO di Hugging Face. “Con questa nuova partnership, permetteremo agli utenti di Hugging Face e ai clienti di Google Cloud di utilizzare in maniera semplice i modelli aperti più recenti, insieme all’infrastruttura AI ottimizzata e agli strumenti leader di Google Cloud, tra cui Vertex AI e le TPU, per aumentare in modo significativo le abilità degli sviluppatori di costruire i propri modelli AI”.
Vertex AI e GKE saranno disponibili come opzioni di deployment sulla piattaforma Hugging Face nella prima metà del 2024.