Scienza

Auto autonoma: altruista o egoista?

Il caso dell'incidente in cui la macchina autonoma Uber ha ucciso un pedone ha messo in luce le complesse problematiche etiche e regolative

Il 18 marzo 2018 a Tempe, in Arizona, un'auto a gioda autonoma ha investito un pedone, uccidendolo.

Quello che prima o poi doveva succedere è successo: un’auto a guida autonoma ha investito e ucciso un pedone, una donna di 49 anni. L’incidente è avvenuto a Tempe, in Arizona.

Sulla macchina, un modello a guida automatica della Uber, stava viaggiando anche un operatore, che però pare non abbia fatto in tempo a intervenire per evitare la persona che all’improvviso si è parata davanti all’auto attraversando la strada, con la bicicletta in mano.

Tante domande

Non è ancora del tutto chiaro come e perché sia avvenuto l’incidente, e di quali tecnologie fosse dotata l’auto. L’operatore a bordo della macchina sembra non stesse guardando nel momento in cui la donna ha attraversato la strada. E, a giudicare dal video ripreso dalla telecamera installata sull’auto e reso pubblico da Uber, è improbabile che sarebbe riuscito comunque a evitarla. Ma con questo, come con altri precedenti incidenti che hanno coinvolto auto a guida autonoma, diventa sempre più chiaro che, se davvero le auto autonome entreranno sul mercato, ci saranno molti interrogativi di tipo etico e legislativo cui dare risposta.

Errori e incidenti

Nel 2016 si era verificato un altro incidente mortale con un’auto a guida autonoma: l’autista che viaggiava sulla macchina in fase di test su strada era deceduto in uno scontro.

Dal punto di vista tecnologico, sembra inoltre che i sistemi di intelligenza artificiale di cui sono dotate le auto a guida autonoma facciano ancora fatica a distinguere certi tipi di ostacoli, per esempio le biciclette. “D’altra parte, questo potenziale problema è controbilanciato da altre forme di tecnologie di cui sono dotate le auto, e che le rende più sicure” osserva Giovanni Sartor, che all’Università di Bologna studia gli aspetti etici e giuridici di questa tecnologia.

Nonostante questi episodi, gli esperti assicurano che le macchine autonome siano già in grado di guidare in modo più sicuro ed efficiente delle persone. “Molti degli incidenti stradali sono dovuti a errori umani. Con le auto autonome, questi dovrebbero diminuire” dice Francesca Lagioia, ricercatrice nel gruppo di Bologna.

Come gestire l'interazione uomo-macchina

Ma ci sono altri aspetti da tenere in considerazione. Uno riguarda in generale la spartizione dei compiti tra uomo e macchina, e il ruolo dell’essere umano. “Nell’incidente Uber è stato messo sotto accusa il guidatore, ma già in altri contesti è stato osservato lo stesso fenomeno. E cioè che, una volta “delegata” la macchina, è difficile per la persona riprendere il controllo” spiega Giuseppe Contissa, ricercatore di informatica giuridica. “Sembra quasi che non ci sia una soluzione intermedia tra la completa automazione e la guida del tutto umana. E questo sarà un problema da risolvere”.

Un altro nodo molto difficile da sciogliere riguarda la programmazione della macchina per le scelte da compiere sulla strada, nel caso si trovi in situazioni imprevedibili. Un paio di anni fa, uno studio svolto da ricercatori del MIT di Boston aveva messo il dito nella piega mostrando i dilemmi che ci potremmo trovare ad affrontare in futuro. Poste di fronte alla scelta se far valere in caso di emergenza un principio utilitaristico, cioè sacrificare il minor numero possibile di vite, o l’interesse di chi è alla guida della macchina, la maggior parte delle persone reputa giusto optare per il male minore. Quando però veniva chiesto direttamente alle stesse persone se acquisterebbero un’auto programmata per sacrificare il guidatore e i passeggeri, per esempio sterzando verso un muro per non investire un gruppo di persone sulla strada, erano in pochi a rispondere affermativamente.

Decisioni difficili

Proprio a partire da studi come questo, i ricercatori del gruppo di Bologna hanno provato a ragionare su come risolvere tali questioni etiche. “Partendo dal dato che la maggior parte delle persone non sarebbe disposta ad affidarsi a un’auto imparziale, abbiamo fatto una sorta di esperimento mentale” spiega Sartor. “In che misura vogliamo che la macchina tenga conto del nostro interesse in caso di incidente?”. Hanno ipotizzato di dotare le auto di un dispositivo chiamato “manopola etica”: in pratica un pulsante per predisporre l’auto a comportarsi in un modo altruistico, egoistico, oppure secondo una delle tante vie di mezzo pensabili tra i due estremi, per esempio egoistico se a bordo ci sono i figli del conducente, altruistico se il guidatore è da solo, e così via.

Pur trattandosi solo di un esperimento mentale, il lavoro dei ricercatori ha messo bene in luce le complesse problematiche che dovranno essere gestite con l’introduzione di questa tecnologia. “Possiamo immaginare varie soluzioni. Bisognerà vedere se il legislatore interverrà, dando indicazioni su come dovranno essere programmate le macchine, in che misura sarà concesso a chi le utilizza di scegliere per conto proprio, valutare se tutte le scelte teoricamente possibili siano anche giuridicamente lecite” riassume Lagioia. Di sicuro, a un certo punto qualcuno dovrà prendere decisioni su che tipo di moralità fornire alle nostre auto.

Per saperne di più

© Riproduzione Riservata

Leggi anche

Uber, incidente dell'auto senza guidatore in arizona

Auto che si guida da sola, perché sbaglia e uccide

Una tecnologia ancora immatura, ma soprattutto l'imprevedibilità dell'elemento umano. Le cause dell'incidente fatale della macchina robot di Uber

Commenti