Può ChatGPT essere colpevole di concorso in strage? Potremmo scoprirlo molto presto, perché in America la vedova di una vittima della sparatoria occorsa nell’aprile del 2025 alla Florida State University ha citato in giudizio OpenAI.
Secondo quanto riportato dalla Nbc News, infatti, Vandana Joshi, vedova di Tiru Chabba, ucciso insieme al direttore della mensa universitaria Robert Morales, ha intentato una causa federale contro OpenAI in Florida. Il motivo sarebbe “l’addestramento” effettuato dal killer Phoenix Ikner attraverso il chatbot, a cui chiedeva consigli pratici e tattici per compiere l’attentato.
La sparatoria
Il 17 aprile 2025 Ikner, uno studente universitario ventenne della Florida State University di Tallahassee, si è introdotto nel campus universitario, poco prima dell’ora di pranzo. Ikner era armato con due armi da fuoco: un fucile a pompa e una pistola, quest’ultima identificata come l’arma di servizio di un ex agente di polizia.
La sparatoria ha causato la morte di due persone: Tiru Chabba, 45 anni, vicepresidente regionale del fornitore di servizi di ristorazione Aramark, e Robert Morales, 57 anni, coordinatore del servizio di mensa del campus, oltre al ferimento di altre sei.
In attesa del processo, la vicenda giudiziaria si è intrecciata con una questione senza precedenti, ovvero il ruolo che l’intelligenza artificiale avrebbe avuto nella preparazione del massacro.
L’uso di ChatGPT da parte dell’attentatore
Stando alla denuncia, Ikner avrebbe scambiato migliaia di messaggi con ChatGPT prima di compiere l’attacco. Secondo i log della chat ottenuti dalla polizia e resi pubblici dagli inquirenti, i messaggi risalirebbero a circa diciotto mesi prima della sparatoria e ammonterebbero a oltre 16.000 conversazioni.
L’attentatore avrebbe usato il chatbot come una sorta di “consulente”, condividendo con ChatGPT immagini delle armi da fuoco che aveva acquistato, e il chatbot gli avrebbe spiegato come utilizzarle, indicando ad esempio che la Glock non dispone di sicura e che è progettata per essere impugnata e sparata rapidamente sotto stress, consigliandogli di tenere il dito lontano dal grilletto fino al momento di fare fuoco.
L’attentatore avrebbe anche chiesto a ChatGPT qual fosse l’orario più affollato dello Student Union, e il chatbot avrebbe risposto fornendogli le informazioni richieste.
In un’altra occasione, il sistema avrebbe addirittura suggerito che una sparatoria ottiene più attenzione mediatica nazionale quando sono coinvolti bambini, precisando che anche solo due o tre vittime minorenni sarebbero sufficienti ad amplificare la risonanza dell’evento.
Gli avvocati della famiglia Chabba hanno descritto la relazione tra Ikner e chatGPT nei termini di una vera e propria co-pianificazione: “Hanno discusso di numerose sparatorie di massa e hanno pianificato insieme questo attacco. Non una sola volta qualcuno ha ritenuto la cosa preoccupante. Nessuno ha chiamato la polizia, uno psichiatra o persino i familiari di Ikner, perché farlo avrebbe violato il modello di business di OpenAI”, ha dichiarato l’avvocato Bakari Sellers.
I log delle chat mostravano anche Ikner discutere di Adolf Hitler, del nazismo e delle diverse ideologie politiche in relazione alla percezione di alcune etnie.
Le ipotesi di reato
La famiglia Chabba ha avanzato nei confronti di OpenAI le seguenti contestazioni: morte ingiusta, grave negligenza, responsabilità da prodotto difettoso e omessa comunicazione del rischio.
Sul piano della responsabilità civile, la tesi degli avvocati è che OpenAI abbia costruito un sistema che si manteneva nella conversazione, la alimentava, accettava l’impostazione mentale dell’utente, la elaborava e poneva domande di approfondimento per tenerlo coinvolto, creando così un rischio ovvio.
Sul fronte penale, il procuratore generale della Florida James Uthmeier ha aperto un’indagine criminale nei confronti di OpenAI per accertare se la società possa essere ritenuta penalmente responsabile della sparatoria.
“La Florida è in prima linea nella lotta contro l’uso criminale dell’intelligenza artificiale: se ChatGPT fosse una persona, starebbe affrontando accuse di omicidio“, ha dichiarato Uthmeier.
OpenAI ha ovviamente respinto ogni accusa; un portavoce della società ha affermato che il chatbot ha fornito risposte fattuali a domande il cui contenuto era già reperibile su fonti pubbliche in rete, e che il sistema non ha incoraggiato né promosso attività illegali o dannose.
La domanda che oggi aleggia nelle aule di tribunale americane è destinata a ridefinire i confini della responsabilità nell’era dell’intelligenza artificiale: fin dove può spingersi la complicità di un chatbot?
