Run:AI è la startup israeliana che ha sviluppato l’omonima piattaforma di compute management progettata per l’orchestrazione e l’accelerazione di intelligenza artificiale e machine learning.
L’azienda ha ora annunciato il lancio di una nuova ResearcherUI, così come l’integrazione con strumenti di machine learning tra cui Kubeflow, MLflow e Apache Airflow.
La nuova opzione UI fa parte dell’iniziativa “Run:it your way” di Run:AI, che consente ai data scientist di scegliere i loro strumenti di machine learning preferiti per gestire il modeling e altri processi di scienza dei dati sulla compute orchestration platform di Run:AI.
Ci sono decine di tool di data science utilizzati per eseguire gli esperimenti, mette in evidenza Run:AI, e naturalmente alcuni data scientist si trovano più a loro agio con uno strumento, altri con un altro.
Run:AI alloca dinamicamente le GPU ai job di data science di un’intera organizzazione, indipendentemente dagli strumenti di machine learning che gli utenti usano per costruire e gestire i modelli.
I team possono avere quote garantite, ma i loro carichi di lavoro possono utilizzare qualsiasi risorsa GPU inattiva disponibile, creando frazioni logiche di GPU, estendendo i lavori su più GPU e più nodi GPU per il training distribuito e massimizzando il rapporto qualità-prezzo dell’hardware.
Con “Run:it your way”, Run:AI supporta tutte le più diffuse piattaforme di machine learning tra cui, ma non solo: Kubeflow, Apache Airflow, MLflow, supporto API (anche per ambienti di data science air-gapped), YAML, Command Line e la nuova ResearcherUI dell’azienda.
Come ha sottolineato Omri Geller, CEO di Run:AI, ad alcuni scienziati dei dati piace Kubeflow, alcuni preferiscono MLFlow, altri ancora preferiscono usare i file YAML. Ci sono società che arrivano a utilizzare 50 diversi strumenti di scienza dei dati.
Con Run:AI, mette ancora in evidenza il CEO dell’azienda, non c’è bisogno di costringere tutti i team di data science a usare uno specifico strumento di machine learning per trarre vantaggio dalla piattaforma di orchestrazione GPU.
Invece, ogni team può eseguirlo a modo suo (da qui la definizione “Run:it your way”), condividendo le risorse GPU dinamiche in comune e utilizzando i migliori strumenti di machine learning in base al flusso di lavoro di scienza dei dati dell’azienda.