La società sta lavorando allo sviluppo di una rete neurale artificiale, grazie all’utilizzo di hardware e software dedicati, che mira ad imitare i processi svolti dal cervello umano.
In letteratura si chiama “machine learning“, tradotto “apprendimento automatico“,
quella branca dell’intelligenza artificiale che, grazie all’utilizzo
delle informazioni provenienti da sensori o strutture dati, permette di
attivare una sorta di processo decisionale da parte della macchina che,
in un certo senso, amplia la propria “conoscenza”. Algoritmi di
apprendimento automatico sono oggi utilizzati in molti settori dell’IT,
dal riconoscimento vocale, alla visione assistita dal computer , dai sistemi per l’individuazione ed il blocco dello spam alle autovetturein grado di guidarsi da sole”. Si tratta comunque di una scienza per lungi dall’aver raggiunto la perfezione. “Accade
di frequente che le proprie parole, sottoposte a riconoscimento vocale,
siano trascritte in modo scorretto, che una traduzione risulti
inadeguata o che un’immagine non venga riconosciuta“, osserva Jeff Dean (Google).
Dean
spiega come il colosso di Mountain View sia cercando di compiere un
netto passo in avanti. Una testimonianza concreta è l’esperimento
condotto a termine in queste settimane e che ha previsto la creazione di
una rete neurale formata da 16.000 CPU installate sui computer di uno dei centri di elaborazioni dati di Google. Una rete neurale artificiale, grazie all’utilizzo di hardware e software dedicati, mira ad imitare i processi svolti dal cervello umano.
Sì,
perché oggi una macchina – spiega Dean – è in grado di distinguere la
foto di una motocicletta da da quella di un’autovettura utilizzando un
ricco database di immagini contenenti i due oggetti che debbono però
essere chiaramente etichettati. Tutte le moto debbono essere descritte
come tali così come tutte le auto. Trovando le similitudini fra i vari
oggetti, il sistema potrà capire se, ad esempio, la foto trasmessa
dall’utente contenga un’auto o una moto.
Nei laboratori di Google
si è agito, stavolta, in maniera diversa: si è “dato in pasto” alla
rete neurale artificiale migliaia di video provenienti da YouTube. Senza
dare alcuna indicazione sugli oggetti rappresentati nei video, si è
lasciato il sistema agire in maniera autonoma per circa una settimana. “La
rete neurale artificiale è riuscita a scoprire com’è fatto un gatto
senza che fosse stata precedentemente istruita sull’identità dei felini“,
ha spiegato Dean. I gatti sono ciò che i sistemi di Google sono
riusciti a riconoscere per primi, estrapolandoli con sicurezza
(l’accuratezza in fase di rilevamento è superiore al 70%) dall’enorme
mole di immagini contenute in ogni singolo video pubblicato su YouTube.
Per
le parti del corpo ed i volti umani sembra che i test stiano dando
risultati addirittura ancora più incoraggianti (circa l’82% dei
rilevamenti corretti).
Stando ai dati rilasciati da Google, la rete messa a punto nei laboratori Google X, avrebbe simulato un miliardo di connessioni neurali quando il cervello umano ne conterrebbe 1.000 miliardi.