Unmanned

Altro incidente per una Tesla con autopilota

Dalla Cine le immagini di un nuovo crash legato a problemi con il bianco

Pare avere più fortuna con i razzi che con le automobili a guida autonoma Elon Musk, almeno stando a quanto hanno ripreso le videocamere di sicurezza della National Freeway 1 a Taiwan. Dopo che un camion camion si è ribaltato rimanendo coricato su un fianco e sulla corsia di sinistra, pare a seguito di una perdita di controllo derivante da una foratura, una Tesla Model 3 anch'essa bianca ha raggiunto a velocità sostenuta il punto dell'incidente scontrandosi contro l'ostacolo senza apparentemente dare alcun segno di frenata o intenzione di cambio corsia.

Stando alle dichiarazione della stampa locale la Polizia intervenuta a seguito dello schianto avrebbe raccolto dal conducente della Model 3 una testimonianza secondo la quale egli, seppure avesse notato il camion ribaltato, abbia atteso per capire se l'auto stesse per evitarlo o avesse intenzione di fermarsi.Una fiducia mal riposta evidentemente, perché i sistemi non hanno reagito in alcun modo lasciando trascorrere il tempo critico entro il quale poter effettuare la frenata. E l'episodio si è trasformato in uno schianto dal quale però i passeggeri della tesla sarebbero usciti senza conseguenze.

La ricostruzione dell'incidente fa però acqua da più parti: innanzi tutto non si comprende come mai neppure il conducente non sia intervenuto sui comandi, perché comunque sarebbe obbligato per legge a non attendere l'azione degli algoritmi, quindi non è chiaro se si sia trattato di un problema ai sensori (sporchi o difettosi, ovvero non in grado di vedere in caso di situazioni articolari di luminosità e contrasto) oppure dell'autopilota. Inoltre nel video si vede chiaramente l'autista del camion che, sceso dall'automezzo, cercava di attirare l'attenzione dell'automobilista rischiando peraltro di essere travolto dalla Tesla, che invece scarta da una lato come i suoi sensori effettivamente hanno ordinato. Dunque tutto farebbe pensare che mentre i sistemi Ads di bordo fossero attivi, l'autopilota sia stato usato in modo improprio.

Perché le autovetture di questo tipo possano diffondersi e creare nuovi standard di sicurezza è necessario che confermino nel tempo la caratteristica – o se non altro la propensione – a schivare gli ostacoli. Negli soli Usa, dove ogni giorno viaggiano circa 143 milioni di americani, almeno secondo l'Ufficio delle statistiche dei trasporti, le 36.560 vittime per incidenti stradali registrate nel 2019 corrispondono a un tasso statistico di circa 1,13 per 100 milioni di miglia percorse su un totale di sei milioni di incidenti stradali. Contrariamente alla credenza popolare i numeri indicano che i conducenti umani sono straordinariamente bravi in ciò che l'industria dei veicoli senza pilota chiama funzione "rileva ed evita".

Come notato in uno studio del 2016 i veicoli automatizzati devono hanno finora totalizzato soltanto una frazione del chilometraggio necessario per poter fare un significativo paragone degli autopiloti con le prestazioni umane. In particolare la strada è ancora molto lunga, almeno se guardiamo ai sistemi di "autocoscienza" di cui i velivoli avranno bisogno per poter agire in modo efficace al fine di schivare ostacoli e altri mezzi. Alcuni programmi di ricerca effettuati negli Usa come nel Regno Unito hanno recentemente studiato approcci alternativi al problema, come accade alla Northwestern University (Ca), i ricercatori hanno sviluppato quello che sostengono sia il primo algoritmo decentralizzato con una garanzia senza collisioni e senza situazioni definite di stallo o indecisione del sistema. Dall'altra parte dell'Atlantico, un consorzio di fornitori di veicoli, produttori di elettronica e ricercatori universitari, guidato dalla consulenza ingegneristica, Applus Idiada (UK), ha appena completato il progetto biennale di prevenzione delle collisioni multi-auto (in sigla Mucca, ne abbiamo parlato qui), mirato a ottenere AV per evitare collisioni e traffico ritardi in modi umani. Entrambi gli sforzi si sono concentrati sulla localizzazione delle capacità di consapevolezza ed elusione di piccoli gruppi di auto a guida autonoma mediante processi decisionali indipendenti basati sulla comunicazione collaborativa. Si potrebbe pensare quasi a un "sesto senso", cioè di creare una percezione a 360 gradi attorno al veicolo oltre agli allarmi che tutti i singoli sensori possono generare.Tornando all'incidente della tesla accaduto a Taiwan, le indagini tecniche si stanno orientando verso problemi di riscaldamento dei sensori all'infrarosso installati a bordo, che in quelle condizioni non riuscirebbero a distinguere determinati bersagli. Poiché mentre i corpi vivi (caldi) vengono rilevati senza problemi, come lo scarto dell'auto di Taiwan ha dimostrato, qualcosa di bianco (colore che somma le frequenze del visibile) e freddo (come il tetto del camion urtato), risulterebbero invisibili.Le telecamere standard, i radar, il lidar (radar-laser) e i ricevitori Gps attualmente installati presentano infatti delle limitazioni, come avere una capacità limitata di fornire dati adeguati per la guida notturna. Il radar è eccellente nel determinare qualcosa che esiste, ma è impreciso se l'oggetto non si muove e ha una scarsa capacità di classificazione dei bersagli. Il lidar può fornire eccellenti informazioni sulla distanza dell'ostacolo, ma è costoso, registra relativamente pochi obiettivi per volta rispetto alle telecamere e degrada in caso di pioggia, nebbia e interferenze con altri lidar. Ma il problema più grande resta la mancanza di standardizzazione tra i diversi pacchetti di sensori che i produttori di veicoli decidono di installare, problema dovuto alla non condivisione delle proprietà intellettuali dei brevetti depositati dai colossi dell'automotive e degli accordi di riservatezza firmati con gli istituti di ricerca privati.

Ti potrebbe piacere anche

I più letti