Quando Microsoft ha investito 1 miliardo di dollari in OpenAI nel 2019, ha anche programmato di costruire un supercomputer all’avanguardia per la startup di ricerca sull’intelligenza artificiale.
Al tempo, Microsoft non aveva nulla di simile a ciò di cui OpenAI aveva bisogno e non c’erano certezze che il cloud di Azure fosse adatto, per conformazione e potenza necessaria, alle specifiche richieste. Inoltre, le risorse di Azure non potevano certo essere sottratte alle migliaia di clienti del cloud di Microsoft.
OpenAI stava cercando di addestrare un insieme sempre più ampio di modelli, che ingerivano volumi sempre maggiori di dati e apprendevano un numero sempre maggiore di parametri, le variabili che il sistema di intelligenza artificiale ha individuato attraverso l’addestramento e il retraining.
Ciò significa che OpenAI aveva bisogno di accedere a potenti servizi di cloud computing per lunghi periodi di tempo.
Per far fronte a questa sfida, Microsoft ha dovuto trovare il modo di mettere insieme decine di migliaia di chip grafici A100 di Nvidia – fra i più apprezzati per l’addestramento dei modelli di IA – e cambiare il modo in cui posiziona i server sui rack per evitare interruzioni di corrente. Scott Guthrie, Executive Vice President, Cloud + AI, non ha voluto fornire un costo specifico per il progetto, ma ha detto che “probabilmente è più grande” di diverse centinaia di milioni di dollari.
“Abbiamo costruito un’architettura di sistema che potesse funzionare ed essere affidabile su scala molto ampia. È questo che ha reso possibile ChatGPT”, ha affermato Nidhi Chappell, direttore generale di Microsoft per l’infrastruttura Azure AI. “Questo è un modello che ne è scaturito. Ce ne saranno molti altri”.
La tecnologia ha permesso a OpenAI di rilasciare ChatGPT, il chatbot virale che ha attirato più di 1 milione di utenti in meno di 48 ore. Man mano che gli strumenti di IA generativa come ChatGPT guadagnano interesse da parte di aziende e consumatori, aumenterà la pressione sui fornitori di servizi cloud come Microsoft, Amazon e Google per garantire che i loro data center possano fornire l’enorme potenza di calcolo necessaria.
Ora Microsoft utilizza lo stesso insieme di risorse che ha costruito per OpenAI per addestrare ed eseguire i propri modelli di intelligenza artificiale di grandi dimensioni, tra cui il nuovo bot di ricerca Bing presentato il mese scorso. Inoltre, vende il sistema ad altri clienti. Il gigante del software è già al lavoro sulla prossima generazione del supercomputer di intelligenza artificiale, parte di un accordo ampliato con OpenAI in cui Microsoft ha aggiunto 10 miliardi di dollari al suo investimento.
L’addestramento di un modello di IA massivo richiede un grande pool di unità di elaborazione grafica collegate in un unico luogo, come il supercomputer di IA assemblato da Microsoft.
Una volta che il modello è in uso, rispondere a tutte le domande poste dagli utenti – la cosiddetta inferenza – richiede una configurazione leggermente diversa. Anche Microsoft impiega chip grafici per l’inferenza, ma questi processori – centinaia di migliaia – sono geograficamente dispersi negli oltre 60 centri dati dell’azienda. Ora lla società americana sta aggiungendo l’ultimo chip grafico Nvidia per i carichi di lavoro AI – l’H100 – e la versione più recente della tecnologia di rete Infiniband di Nvidia per condividere i dati ancora più velocemente, ha dichiarato Microsoft lunedì in un post sul blog.
Il nuovo Bing è ancora in anteprima e Microsoft aggiunge gradualmente altri utenti da una lista d’attesa.