Tesla cerca di padroneggiare la guida autonoma attraverso il fleet learning, un approccio che include il caricamento in modalità wireless di grandi quantità di immagini e dati dei sensori dai veicoli dei proprietari.
Un incidente mortale come quello del modello X ha suggerito di utilizzare questi dati per registrare i potenziali pericoli della strada e addestrare i propri veicoli ad evitarli.
L’incidente che dato il via al ripensamento da parte di Tesla è quello occorso a Walter Huang, decedutp il 23 marzo quando il suo veicolo ha urtato un divisore di corsie in cemento a Mountain View, California, nel cuore della Silicon Valley.
Il driver utilizzava il sistema semiautomatico di Tesla, che non ha riconosciuto il divisore in cemento. Anche se gli investigatori federali non hanno ancora dichiarato l’eventuale colpevolezza di Huang, Autopilot o entrambi, Tesla ha identificato un fattore che ha contribuito all’incidente.
La ragione per cui questo incidente è stato così grave è che il crash attenuator, una barriera di sicurezza stradale progettata per ridurre l’impatto di un divisore di corsia in cemento, era stato rimosso o schiacciato in un incidente precedente senza essere sostituito.
È questa la spiegazione fornita da Tesla in un post sul blog 27 marzo. “I nostri dati mostrano che i proprietari di Tesla hanno guidato in questo stesso tratto di autostrada con Autopilot circa 85.000 volte da quando Autopilot è stato lanciato nel 2015 e circa 20.000 volte da solo all’inizio dell’anno, e non c’è mai stato un incidente che conosciamo“.
Una foto pubblicata da Tesla mostra che l’attenuatore è stato danneggiato almeno un giorno prima dell’incidente, e involontariamente solleva una potenziale limitazione per un’azienda pioniera nella connettività dei veicoli e negli aggiornamenti wireless.
Tutti i dati di immagine e sensore raccolti da Tesla per la ricerca e lo sviluppo non sembrano registrare i rischi fisici (come le barriere di corsia danneggiate) e avvisare gli automobilisti – cosa che invece fa l’app di navigazione Waze di Alphabet – o addestrare l’Autopilot ad evitare tali rischi.
Waze incoraggia gli utenti a segnalare i pericoli della strada. Si tratta di informazioni rapidamente condivise con altri utenti dell’applicazione. Anche Intel Mobileye utilizza la tecnologia basata su telecamere, il suo sistema di gestione dell’esperienza stradale, per raccogliere e condividere tali dati con altri veicoli dotati di chip Rem. Funzionalità che invece non fanno parte dle patrimonio di Tesla visto che un portavoce ha confermato che gli avvisi relativi ai pericoli fisici della strada non sono integrati nel sistema di navigazione in questo momento.
Dopo l’incidente, i clienti di Tesla hanno anche cercato di replicare le circostanze dell’incidente di Huang, tra cui un proprietario del modello S che ha guidato lo stesso tratto il 2 aprile. In un video postato su YouTube e su un blog di Reddit.com, ha affermato che il suo veicolo si sarebbe diretto direttamente verso la barriera e l’avrebbe colpita se non avesse ripreso il controllo da Autopilot.
È possibile che Tesla sia vicina a fare un uso significativo di tutti i dati che sta raccogliendo. Ma, come molte delle affermazioni dell’azienda, la distanza tra le sue grandi ambizioni e la realtà rimane estremamente difficile da misurare.
Beh, non mi sembra una grande notizia il fatto che Tesla utilizza i dati delle proprie auto per migliorarsi e che impara dai propri errori. Lo fa da anni.
Bhe, direi che un problema di concetto esiste comunque, e la “pelle” della gente è il piatto del gioco. E’ impensabile usare gli “errori” per imparare in questi ambiti, perché l’errore di fatto comporta nella maggior parte dei casi la morte di una persona. L’autopilota sbaglia, tutte le altre auto imparano dall’errore, e intanto quel povero disgraziato che era sul veicolo dell’autopilota che ha sbagliato ? E a quanti errori bisogna adattarsi ?