Google Cloud ha annunciato la disponibilità generale di AI Platform Prediction, basato su un backend Google Kubernetes Engine (GKE).
La nuova architettura backend, ha spiegato la società di Mountain View, è stata progettata per una migliore affidabilità, una maggiore flessibilità attraverso nuove opzioni hardware (tipi di macchine Compute Engine e acceleratori Nvidia), una ridotta latenza overhead e una migliore tail latency.
Il machine learning sta trasformando il business e le attività delle imprese, sottolinea il team di Google Cloud.
Machine learning e capacità di previsione basate sull’intelligenza artificiale sono al centro di esperienze quali trovare partner di ridesharing, suggerire prodotti o playlist, identificare oggetti nelle immagini o ottimizzare campagne di marketing, e tante altre ancora.
Google Cloud propone AI Platform Prediction proprio come strumento di supporto per le aziende che hanno deciso di innovare mediante l’utilizzo del machine learning, offrendo loro una piattaforma di classe enterprise e globale per l’hosting di tutti i modelli di apprendimento automatico trasformativi.
Oltre alle funzionalità standard come l’autoscaling, i log di accesso e la registrazione delle richieste/risposte, che erano disponibili già durante il periodo Beta, Google Cloud ha introdotto nella piattaforma diversi aggiornamenti che migliorano la robustezza, la flessibilità e l’usabilità.
Molti data scientist, mette in evidenza Google Cloud, apprezzano la semplicità e la potenza di XGBoost e scikit per le previsioni in produzione.
AI Platform rende semplice l’implementazione di modelli addestrati utilizzando questi framework e la piattaforma si occupa di gestire la complessità dell’infrastruttura sull’hardware scelto dal cliente.
Una parte importante del mantenimento dei modelli in produzione è la comprensione delle loro caratteristiche di performance su metriche quali GPU, CPU, RAM e utilizzo della rete. Queste metriche possono aiutare a prendere decisioni su quale hardware utilizzare per ridurre al minimo le latenze e ottimizzare le prestazioni.
Le metriche delle risorse sono ora visibili per i modelli implementati su tipi di macchine GCE da Cloud Console e Stackdriver Metrics.
Google Cloud ha poi introdotto nuovi endpoint in tre aree geografiche (us-central1, europe-west4 e asia-est1) con un migliore isolamento regionale per una maggiore affidabilità. I modelli implementati negli endpoint regionali rimangono all’interno della region specificata.
Infine, in Beta, VPC-Service Controls. Gli utenti possono definire un perimetro di sicurezza e implementare modelli di Online Prediction che hanno accesso solo a risorse e servizi all’interno del perimetro, o all’interno di un altro perimetro bridged.
Le chiamate alle API CAIP Online Prediction vengono effettuate dall’interno del perimetro e l’IP privato consentirà alle VM e ai servizi all’interno delle reti riservate o dei perimetri di sicurezza di accedere alle API CMLE senza dover attraversare la internet pubblica.
Ma la previsione, ne è ben consapevole Google Cloud, non si limita al servire modelli addestrati. I tipici flussi di lavoro di machine learning implicano l’analisi e la comprensione dei modelli e delle previsioni.
La piattaforma, a questo scopo, si integra con altre importanti tecnologie di intelligenza artificiale per semplificare i flussi di lavoro di machine learning delle aziende e per aumentare la produttività.
Per comprendere meglio il proprio business, un’impresa deve capire meglio il proprio modello. Explainable AI di Google Cloud fornisce informazioni sulle previsioni da ogni richiesta ed è disponibile esclusivamente sulla AI Platform.
What-if Tool consente di visualizzare i dataset e comprendere meglio l’output dei modelli distribuiti sulla piattaforma.
La Continuous Evaluation permette di ottenere metriche sulle prestazioni del modello live basate sull’etichettatura delle richieste inviate e consente così di prendere decisioni per riqualificare o migliorare il modello in base alle prestazioni nel tempo.