L’intelligenza artificiale è sempre più presente nella nostra vita e sta riguardando aspetti finora inesplorati. Che pongono domande
per il sistema giudiziario, impreparato a questa rivoluzione. Se un robot sbaglia, chi è colpevole? Un tema delicato su cui la Ue dovrà intervenire.
Attenzione, l’articolo che state per leggere sembra un racconto di fantascienza ma non lo è: gli eventi riferiti sono assolutamente reali. Fatta questa precisazione, iniziamo con una scena avvenuta lo scorso anno in Libia: un drone chiamato Kargu-2 avrebbe violato la prima legge della robotica del geniale scrittore Isaac Asimov («un robot non può recare danno a un essere umano») cercando di eliminare alcuni soldati che combattevano per il generale Khalifa Haftar.
La novità consiste nel fatto che il robot volante avrebbe agito senza alcun controllo umano: se ha ucciso, sarebbe la prima volta che una macchina decide da sola un gesto così estremo. La casa costruttrice del Kargu-2, la turca Defense technologies and trade (Stm), ha reso noto infatti che i suoi droni sono dotati di tecnologia di riconoscimento facciale che consentono di identificare e «neutralizzare» i singoli obiettivi senza dover impiegare forze di terra.
Spostiamoci in America, a Tampa. In questa cittadina dell’Arizona il 18 marzo 2018 è morta Elaine Herzberg, 46 anni, investita da un’auto. La particolarità del suo decesso è che è stato il primo provocato da una vettura a guida autonoma. L’incidente è avvenuto mentre la compagnia di trasporto Uber stava testando i veicoli che non hanno bisogno di conducente. Ora andiamo a New York dove, nel 2013, la falsa notizia di un attentato al presidente Barack Obama ha spinto gli «High frequencies traders», cioè algoritmi abilitati a operare in autonomia sul mercato finanziario, a vendere le azioni dando il via a un crollo improvviso del mercato di Wall Street.
Queste tre storie hanno in comune una caratteristica: vedono come protagonista l’intelligenza artificiale, sempre più pervasiva nelle nostre vite. E che allargandosi in territori finora inesplorati pone nuove sfide al sistema giudiziario. L’intelligenza artificiale, come l’hanno definita 52 esperti nominati dalla Commissione europea, è costituita da «sistemi software (ed eventualmente hardware) progettati dall’uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il proprio ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o elaborando le informazioni derivate e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato».
Il problema è che non sempre gli algoritmi decidono «le migliori azioni da intraprendere», come hanno sperimentato la signora Herzberg, i risparmiatori colpiti dal flash crash 2013 o magari un civile «neutralizzato» per sbaglio da un drone. Ma in questi casi chi paga? Chi sarà ritenuto responsabile di un incidente mortale provocato da un camion a guida autonoma o da un robot-chirurgo? «Entro il 2030 assisteremo alla diffusione a macchia d’olio dell’intelligenza artificiale nei trasporti, nella finanza, nella sanità, nell’istruzione, nella sicurezza pubblica» avverte l’avvocato Giuseppe Fornari, fondatore dello studio Fornari e associati di Milano. «A fronte di ciò, il nodo giuridico da sciogliere è la corretta allocazione della responsabilità penale per i fatti commessi dalle macchine».
Se infatti in campo civile si può attribuire la responsabilità al fornitore, programmatore o utilizzatore del software (al riguardo è stata presentata una proposta di regolamento della Commissione Europea, la prima al mondo), in quello penale la faccenda si complica parecchio: «È difficile ipotizzare la responsabilità personale di utilizzatori, produttori o programmatori di applicativi di intelligenza artificiale quando viene commesso un “fatto di reato”» spiega l’avvocato Nicolò Biligotti dello Studio Fornari e associati. «Peculiarità dell’intelligenza artificiale è comportarsi in modo autonomo e imprevedibile, sulla scorta di algoritmi che tanto consentono alle macchine azioni non esplicitamente programmate dall’uomo, quanto impediscono la ricostruzione ex post delle ragioni che hanno indotto le macchine ad agire in un determinato senso».
Le cose si fanno ancora più complicate quando gli algoritmi non sono al servizio di un’impresa privata o di un mercato finanziario, ma vengono utilizzati dal sistema giudiziario e dalla polizia. Torniamo negli Stati Uniti: siamo nel 2016, nella Corte suprema del Winsconsin. I giudici devono decidere se accettare o respingere il ricorso del signor Eric. L. Loomis che contesta la decisione di un tribunale locale riguardo alla sua libertà vigilata. Non gli era stata concessa per colpa di un algoritmo, un programma informatico chiamato Compass (Correctional offender management profiling for alternative sanctions) di proprietà della Northpointe (ora Equivant), secondo cui Loomis era da considerare un soggetto ad alto rischio di recidiva.
L’algoritmo elabora i dati ottenuti dal fascicolo dell’imputato e dalle risposte fornite nel colloquio con lo stesso, per stabilire quanto è alta la probabilità che individui con una storia criminosa simile siano più o meno propensi a commettere un nuovo reato una volta tornati in libertà. Il caso Loomis è diventato famoso perché per la prima volta un imputato contestava un giudizio basato sull’uso di un algoritmo, ma la Corte suprema gli ha dato torto, ritenendo che il tribunale locale avesse agito correttamente.
Oltre ad assistere i magistrati, l’intelligenza artificiale sta aiutando anche la polizia con tecnologie predittive che richiamano il film Minority Report. Già da anni le forze dell’ordine americane e britanniche usano Predpol, software sviluppato dall’Università di Los Angeles e oggi commercializzato da una società privata. In questo caso gli algoritmi indicano le aree dove è più probabile che vengano perpetrati certi crimini.
Un progetto simile, X-Law, è stato avviato dalla Questura di Napoli per geolocalizzare le aree connotate da maggior rischio criminale elaborando i dati contenuti nelle denunce sporte dai cittadini. Milano invece si è avvalsa di Keycrime, il software capace di incrociare dati provenienti da una molteplicità di fonti al fine di profilare l’attitudine criminale dei delinquenti seriali e prevedere così modalità e tempistiche della commissione di crimini. «In futuro» prevedono Fornari e Biligotti «valutazioni ancor più accurate e approfondite potrebbero essere condotte dall’intelligenza artificiale in merito alla pericolosità sociale di singoli individui».
Ma così si apre un tema di rispetto dei diritti fondamentali delle persone: quante informazioni sul loro passato, sulla religione, sui gusti sessuali possono influire sulle scelte di un algoritmo? In che modo possiamo tutelarci? Tema delicatissimo su cui l’Unione europea dovrà presto intervenire.