Google ha annunciato di aver apportato una serie di aggiornamenti alla sua Cloud AI Platform, la piattaforma per sviluppare progetti e applicazioni di intelligenza artificiale, per renderla più flessibile e veloce nell’eseguire i carichi di lavoro di machine learning.
AI Platform Prediction consente ai data scientist di servire modelli per previsioni online in un ambiente serverless.
In tal modo, ha spiegato Google Cloud, gli sviluppatori di applicazioni possono accedere all’intelligenza artificiale senza dover necessariamente comprendere i framework di machine learning e i data scientist non hanno l’incombenza di gestire l’infrastruttura server.
Tuttavia, alcuni modelli di machine learning sono così complessi che funzionano con una latenza accettabile solo su macchine con molte Cpu o dotate di acceleratori quali le Gpu Nvidia.
Ciò è particolarmente vero per i modelli che elaborano dati non strutturati come immagini, video o testo.
Per questo motivo AI Platform Prediction ora consente ai clienti di scegliere tra una serie di tipi di macchine Compute Engine per eseguire i propri modelli (mentre prima consentiva di scegliere solo tra tipi di macchine con una o quattro vCPU), ed è ora possibile aggiungere Gpu, come la scheda Nvidia T4 a bassa latenza e ottimizzata per l’inferenza.
Tutto ciò, ancora senza la necessità di gestire l’infrastruttura sottostante: la AI Platform si occupa ancora di tutto il provisioning, il ridimensionamento e la pubblicazione del modello.
Con i nuovi tipi di macchine di AI Prediction Platform, sottolinea ancora Google Cloud, è anche più facile eseguire il monitoraggio e il debug. I clienti possono ora loggare le richieste e le risposte di previsione su BigQuery, dove è possibile analizzarle per rilevare asimmetrie e valori anomali oppure per valutare se è il momento di riaddestrare il modello.
Questa funzionalità utilizza un nuovo back-end basato su Google Kubernetes Engine, che consente di creare un sistema affidabile e veloce e che offre tutta la flessibilità richiesta dall’apprendimento automatico.
AI Platform Training consente inoltre ai data scientist di eseguire uno script di training su qualsiasi gamma di hardware, senza dover gestire le macchine sottostanti. Anche qui Google Cloud ha lanciato molte funzioni per estendere i tipi di modelli che è possibile addestrare.
L’azienda ha annunciato la disponibilità generale dei custom container, che consentono di avviare qualsiasi container Docker sul servizio, in modo da poter effettuare il training di un modello con qualsiasi linguaggio, framework o dipendenza.
Per quanto riguarda i tipi di macchine Compute Engine per il training, anche qui è stata annunciata la disponibilità generale della possibilità di scegliere qualsiasi combinazione di CPU, RAM e acceleratori.
Maggiori informazioni sui prodotti e i servizi di intelligenza artificiale e machine learning sono disponibili sul sito di Google Cloud.