I pod di Cloud TPU (Tensor Processing Unit) di Google Cloud sono progettati per il training e l’esecuzione di modelli di machine learning e per ottimizzare le prestazioni sia in fase di training che in quella di inferenza.
Si tratta di una sorta di supercomputer personalizzati per l’intelligenza artificiale, e ora Google Cloud ne ha annunciato la disponibilità generale per tutti i tipi di aziende.
Inoltre, non solo i Cloud TPU sono ora più disponibili in modo più ampio per i clienti della piattaforma della società di Mountain View: essi diventano anche sempre più facili da usare.
Ad esempio, ha spiegato Google Cloud, l’ultima versione di TensorFlow 2.1 (la piattaforma open source end-to-end per il machine learning) include il supporto per Cloud TPU con l’uso di Keras (la libreria di deep learning scritta in Python), con API sia di alto livello che di basso livello.
Ciò, sottolinea ancora Google, consente di sfruttare petaflop di elaborazione TPU che sono ottimizzati per il deep learning, con le stesse API intuitive e familiari per la vasta comunità di utenti Keras. Oltre a questo, informa Google, la serie di release TensorFlow 2.x continuerà anche a supportare la più vecchia API TPUEstimator.
Google Cloud evidenzia come sia possibile utilizzare Keras per il training su Cloud TPU su piccola scala, per poi scalare il training su pod di Cloud TPU: è possibile utilizzare un codice quasi identico per il training su un singolo dispositivo Cloud TPU così come su una grande sezione di pod di Cloud TPU, per migliorare le prestazioni.
Anche dal punto di vista del pricing l’offerta di Google Cloud per l’addestramento dei modelli di machine learning è personalizzabile a seconda delle esigenze, su singoli dispositivi Cloud TPU come per sezioni di pod di Cloud TPU di varia grandezza.
Documentazione e informazioni, sia tecniche che commerciali, sui pod di Cloud TPU sono disponibili sul sito di Google Cloud.