Uber
Tecnologia

Uber, l'auto che si guida da sola aveva visto la sua vittima

L'incidente fatale per una ciclista in Arizona sarebbe dipeso da un errore del software, che avrebbe deliberatamente deciso di non frenare

Senza scomodare ipotesi apocalittiche da rivolta delle macchine, scenari nefasti di robot senzienti killer, c'è uno sviluppo abbastanza clamoroso nella vicenda dell'auto autonoma di Uber che lo scorso marzo ha investito una donna in Arizona: la vettura avrebbe visto, percepito qualcosa. Si sarebbe accorta della presenza di quella che pochi istanti dopo sarebbe diventata la sua vittima, ma avrebbe scelto di non rallentare. Estremizzando un po', si può sostenere che l'abbia colpita di proposito, scambiandola per altro, non ritenendo comunque opportuno frenare.

Il falso positivo

Detta così, brutalmente, c'è parecchio di cui inquietarsi. Meglio dunque chiarire. La verità è che a determinare il pasticcio sarebbe stato un errore del software, un cosiddetto «falso positivo», per riprendere la terminologia usata dal sito «The Information», che per primo ha rivelato gli aggiornamenti della vicenda. Significa che chi ha programmato la macchina, l'avrebbe ?" peraltro comprensibilmente ?" istruita a non curarsi di quegli oggetti che, di regola, non dovrebbero interferire nel suo ordinario cammino, come per esempio buste che fluttuano scosse dal vento, piccoli rifiuti e affini. Sulla carta, ha senso. Sarebbe abbastanza frustrante se la macchina super intelligente si bloccasse ogni qual volta la lattina di una bevanda staziona sull'asfalto. E però: se un pedone viene scambiato per una busta di plastica volante, è, senza eufemismi, un dramma.

L'inganno dei sensi

Questa visione, dunque, contrasta con la ricostruzione originale, secondo la quale la scarsa visibilità, le condizioni infelici del meteo, avrebbero ridotto la capacità percettiva del veicolo che viaggiava a oltre 60 chilometri orari prima di falciare la vittima. Pasticcio sistemato da Uber con un accordo economico dalla consistenza non rivelata con la famiglia di Elaine Herzberg, la ciclista 49enne uccisa dalla Volvo XC90 della società di ride sharing. Figlia e marito della donna hanno fatto sapere tramite il loro avvocato che per loro «la questione è risolta», declinando qualsiasi ulteriore commento, ma risolta non lo era affatto per le autorità americane. Che hanno sospeso le sperimentazioni del servizio e hanno continuato a indagare, scoprendo l'inatteso sviluppo.  

Revisione in corso

Uber ha preferito non scendere nei dettagli dell'accaduto, ma ha comunicato l'avvio di una revisione dei protocolli di tutto il programma: «Dalla sicurezza del nostro sistema al processo di training degli operatori dei veicoli». Finiti anche loro nell'occhio del ciclone: nell'incidente in Arizona, chi era al volante sarebbe dovuto intervenire per rimediare a eventuali errori del computer, invece non è stato provvidenziale. Anzi. Ma il punto focale, parecchio più delicato, rimane il difetto di prospettiva, l'erronea lettura della situazione da parte del cervellone che fa muovere le ruote. Se non un bug vero e proprio, la sottovalutazione di uno scenario. Che stravolge e riazzera il dibattito sull'auto che si guida da sola.

Il paradigma si riavvolge

Finora ci si era concentrati sui ragionamenti alla base delle scelte delle macchine autonome, su come educarle di fronte ai dilemmi etici: nei casi estremi, chi dovranno uccidere? L'autista o un bambino che attraversa la strada? Il passeggero o un cane? La verità è che forse non siamo ancora così avanti. Per prima cosa, bisogna assicurarsi che capiscano chi o cosa hanno di fronte. A quanto pare, non è così. Siamo stati noi tutti i primi a commettere un errore, quello di dare per scontato che sappiano davvero cosa stanno facendo.

Per saperne di più

Ti potrebbe piacere anche