C’è molto machine learning negli annunci rilasciati nei primi due giorni di Google I/O.
E la notizia che accompagna le ultime novità è che la società sta facendo tutto questo anche con l’ausilio di un nuovo processore disegnato e progettato per questi specifici utilizzi.
La richiesta è semplice: aumentare quanto più possibile l’efficienza, con un processore in grado di fare di più in meno tempo consumando meno energia.
L’ulteriore notizia è che questo primo processore, si chiama TPU, Tensor Processing Unit, è solo il primo di altri destinati a seguirlo.
Con questo non significa, Google tiene a precisarlo, che da Mountain View si intende aprire un nuovo fronte di competizione con Intel o nVidia: Google non intende vendere i propri processori ad altri.
Tuttavia, ed è questo un aspetto non trascurabile della questione, Google di suo è già un forte cliente delle aziende sopra citate, e utilizza ampiamente i loro prodotti nei suoi datacenter, attraverso i quali eroga servizi cloud e verso i quali punta attrarre un numero crescente di aziende e di sviluppatori, anche grazie alla spinta di efficienza che le nove tecnologie garantiscono. L’effetto potrebbe essere non trascurabile, sulla lunga distanza.
Ma torniamo a Google TPU
Il nome Tensor Procesing Unit correla il processore a TensorFlow, il motore software, annunciato alla fine dello scorso anno, che gestisce le reti neurali di Google. TPU è stato sviluppato specificamente per il machine learning e richiede meno transistor per gestire ciascuna singola operazione. Il risultato è che per ogni secondo passante, nel chip può essere concentrato un numero crescente di operazioni. Il chip TPU è un chip dedicato, svolge compiti estremamente precisi e per questo è stato realizzato utilizzando una circuiteria meno complessa, che richiede un numero inferiore di transistor. Risultato: più operazioni sulla stessa superficie, meno consumo energetico.
Tra TPU e FPGA
Per il momento, va detto, Google è stata piuttosto avara di dettagli in merito, limitandosi a sottolineare che Google TPU viene utilizzato per gestire parte del carico computazionale necessario per le funzioni di riconoscimento vocale, promettendo tuttavia documentazione più accurata in un prossimo futuro.
Va detto che sui nuovi processori per il machine learning l’industria sis ta effettivamente muovendo.
Lo sta facendo Microsoft, che punta sui FPGA, i Field Programmable Gate Array, chip ri-programmabili per svolgere task specifici, e lo sta facendo Intel, che proprio alla fine dello scorso anno ha acquisito Altera che sviluppa proprio FPGA.
Ma se Intel e Microsoft puntano sulla flessibilità, che è la caratteristica chiave di FPGA, a Google sembra interessare in modo particolare la velocità, che è invece l’elemento distintivo di TPU.
A che punto è la competizione
A Google, e su questo aspetto l’impressione è che si sia cercato di fare chiarezza a Google I/O, non interessa entrare in competizione su tecnologie considerate in qualche misura mature, come le CPU, di cui continua e continuerà ad aver bisogno, tanto da aggiudicarsi ogni anno qualcosa come il 5 per cento dei processori venduti in tutto il mondo. Con TPU intende risolvere problemi non ancora risolti.
TPU, è l’ultima parte di questa storia, è utilizzato da circa un anno nei datacenter di Google.
Nel contempo, tuttavia, la società ha aderito a OpenPower Foundation, il gruppo di lavoro il cui obiettivo è mettere a punto nuovi design per i processori, che chiunque possa utilizzare e modificare. Ed è qui, più che da TPU, che potrebbe venire la potenziale minaccia ai big player del silicio, se pure non con effetti immediati.
Mah, onestamente non mi sembra una grande idea quella di google… vedremo
[…] Google TPU, Google ha anche i processori […]