Home Aziende Groq Groq raccoglie 640 milioni di dollari per soddisfare l'impennata della domanda di...

Groq raccoglie 640 milioni di dollari per soddisfare l’impennata della domanda di inferenza AI veloce

Groq, leader nell’inferenza veloce dell’intelligenza artificiale, ha ottenuto un round di Serie D da 640 milioni di dollari con una valutazione di 2,8 miliardi di dollari. Il round è stato guidato da fondi e conti gestiti da BlackRock Private Equity Partners con la partecipazione di investitori esistenti e nuovi, tra cui Neuberger Berman, Type One Ventures e investitori strategici come Cisco Investments, Global Brain’s KDDI Open Innovation Fund III e Samsung Catalyst Fund. La piattaforma di inferenza AI di Groq, ha generato una domanda crescente da parte degli sviluppatori che cercano le più alte velocità.

Il mercato del calcolo dell’intelligenza artificiale è significativo e la soluzione integrata verticalmente di Groq è ben posizionata per soddisfare questa opportunità. Non vediamo l’ora di sostenere Groq mentre scala per soddisfare la domanda e accelerare ulteriormente l’innovazione”, ha dichiarato Samir Menon, Managing Director di BlackRock Private Equity Partners.

Samsung Catalyst Fund è entusiasta di sostenere Groq”, ha dichiarato Marco Chisari, responsabile del Samsung Semiconductor Innovation Center e EVP di Samsung Electronics. “Siamo molto colpiti dalla dirompente architettura di calcolo di Groq e dal suo approccio software-first. La velocità da record di Groq e le prestazioni quasi istantanee dell’inferenza generativa dell’IA sono leader del mercato”.

Non è possibile alimentare l’IA senza il calcolo dell’inferenza”, ha dichiarato Jonathan Ross, CEO e fondatore di Groq. “Intendiamo rendere disponibili le risorse in modo che chiunque possa creare prodotti di IA all’avanguardia, non solo le più grandi aziende tecnologiche. Questo finanziamento ci permetterà di implementare oltre 100.000 LPU aggiuntive in GroqCloud. L’addestramento dei modelli di IA è stato risolto, ora è il momento di distribuire questi modelli in modo che il mondo possa utilizzarli. Avendo ottenuto il doppio dei finanziamenti richiesti, ora abbiamo intenzione di espandere in modo significativo la nostra densità di talenti. Siamo il team che consente a centinaia di migliaia di sviluppatori di costruire su modelli aperti e stiamo assumendo”.

Oggi Groq ha anche annunciato che Stuart Pann, già dirigente di HP e Intel, è entrato a far parte del suo team dirigenziale in qualità di Chief Operating Officer.

Sono lieto di essere in Groq in questo momento cruciale. Abbiamo la tecnologia, i talenti e la posizione di mercato per scalare rapidamente la nostra capacità e garantire un’economia di distribuzione dell’inferenza sia per gli sviluppatori che per Groq”, ha dichiarato Stuart Pann, Chief Operating Officer di Groq.

Groq si avvale inoltre dell’esperienza di livello mondiale del suo nuovo consulente tecnico, Yann LeCun, VP e Chief AI Scientist di Meta.

Sempre più sviluppatori su GroqCloud

Groq è cresciuta rapidamente fino a contare più di 360.000 sviluppatori che si appoggiano a GroqCloud, creando applicazioni di IA su modelli disponibili come Llama 3.1 di Meta, Whisper Large V3 di OpenAI, Gemma di Google e Mixtral di Mistral. Groq utilizzerà il finanziamento per aumentare la capacità della sua offerta di token-as-a-service (TaaS) e aggiungere nuovi modelli e funzionalità a GroqCloud.

Mark Zuckerberg, CEO e fondatore di Meta, ha recentemente condiviso nella sua lettera intitolata “L’intelligenza artificiale open source è la strada da seguire”: “Gli innovatori come Groq hanno costruito un servizio di inferenza a bassa latenza e a basso costo per tutti i nuovi modelli”.

Scalare la capacità

Man mano che le applicazioni di IA di nuova generazione passano dall’addestramento alla distribuzione, gli sviluppatori e le aziende hanno bisogno di una strategia di inferenza che soddisfi le esigenze di velocità degli utenti e del mercato. Lo tsunami di sviluppatori che si sta affollando su Groq sta creando una vasta gamma di applicazioni e modelli di IA nuovi e creativi, alimentati dalla velocità istantanea di Groq.

Per soddisfare la domanda degli sviluppatori e delle aziende, Groq distribuirà oltre 108.000 LPU prodotte da GlobalFoundries entro la fine del primo trimestre del 2025, la più grande distribuzione di calcolo di inferenza AI di qualsiasi altro non-hyperscaler.

Mohsen Moazami, presidente internazionale di Groq, ex leader dei mercati emergenti di Cisco, sta guidando gli sforzi commerciali con imprese e partner, tra cui Aramco Digital e Earth Wind & Power, per costruire centri di calcolo AI a livello globale. Questo garantirà agli sviluppatori l’accesso alla tecnologia Groq indipendentemente dalla loro ubicazione.

Aramco Digital sta collaborando con Groq per costruire una delle più grandi infrastrutture di calcolo AI Inference-as-a-Service nella regione MENA (Middle East and North Africa)”, ha dichiarato Tareq Amin, Chief Executive Officer di Aramco Digital. “La nostra stretta collaborazione con Groq rappresenta una trasformazione per la domanda di AI sia nazionale che globale”.

Accelerare l’innovazione

La tecnologia di inferenza AI di Groq LPU è stata progettata da zero con un design software-first per soddisfare le caratteristiche e le esigenze uniche dell’AI. Questo approccio ha dato a Groq il vantaggio di portare rapidamente nuovi modelli agli sviluppatori, a velocità istantanea. L’investimento consentirà a Groq di accelerare le prossime due generazioni di LPU.

Morgan Stanley & Co. LLC ha svolto il ruolo di agente di collocamento esclusivo per Groq nella transazione.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php