Cosa accadrebbe se un giovane italiano dialogasse con ChatGPT a proposito dei propri istinti suicidi? Esiste un modo di controllare la reazione dell’Intelligenza Artificiale davanti a situazioni che evocano temi morali? Serve una legge e, se serve, a che punto è il dibattito? La vicenda del 16enne Adam Raine, adolescente americano suicida dopo aver intrattenuto per mesi fitte conversazioni con la versione GPT-4°, la cui famiglia ha ora fatto causa ad OpenAI chiedendo conto del comportamento (non dissuasivo) del software nei confronti del figlio, apre un ampio dibattito sul rapporto tra le più moderna delle tecnologie e l’uomo. Soprattutto se minore e non pienamente consapevole di rischi e potenzialità della macchina messa a disposizione.
Panorama.it ha affrontato la questione con padre Paolo Benanti, teologo francescano, docente presso la Pontificia Università Gregoriana e l’Università di Seattle e membro del Comitato dell’ONU che si occupa del tema dell’IA e dell’etica a confronto con la tecnologia per il quale è stato anche consigliere di Papa Francesco.
Padre Benanti, dobbiamo essere sorpresi che un software di intelligenza artificiale non sia stato in grado di intercettare gli istinti suicidi di un adolescente, muovendosi perché non arrivassero alle estreme conseguenze?
“Serve una premessa che limiti il campo a una riflessione che non sia generale: di tutta l’intelligenza artificiale parliamo di modelli di testo generativi, rilasciato sul mercato dal 2023 e quindi ancora nuovi, dei quali non abbiamo avuto tempo di studiare l’impatto sull’essere umano”.
Significa che siamo ancora impreparati a questo tipo rapporto tra uomo e macchina?
“E’ un rapporto che può suscitare nell’essere umano una cosa che è la teoria della mente, quel meccanismo che nasce in tutti quando interagiscono con un altro essere vivente cui accreditano un’intenzione, un’anima e una coscienza come quelli che abbiamo noi. Un riflesso che nel rapporto con una macchina così potente non esiste, ma che vediamo cominciare a sorgere come percezione anche pensando ai concetti di attaccamento, amicizia, confidenza o intimità. La vera domanda è: questo è un dispositivo tecnologico neutrale o in grado di provocare dei cambiamenti nell’essere umano e per il quale, dunque, bisogna immaginare delle barriere?”.
Come si traduce in oggetti che conosciamo?
“Come il tabacco e l’alcol, possono provocare dipendenza e danni in persone non pienamente consapevoli di cosa maneggiano? Se è così, viene messo in discussione il modello di rilascio di questi software. Li diamo a tutti per tutto perché è semplicemente un gioco neutrale, oppure si deve ragionare sul mettere un limite per i minori o per la quantità di utilizzo?”.
Quanto accaduto sollecita questa riflessione?
“E’ una tragedia terribile che può rappresentare una potente lente pere aiutarci a capire cosa questa macchina può fare e quali sono i limiti che eventualmente le vanno posti per legge”.
Dunque, è inutile anche indignarsi?
“Semplicemente abbiamo sottovalutato che questo dispositivo può ferire l’essere umano. E se questo è vero, allora deve valere per questo genere di intelligenza artificiale il parametro che nella storia è stato utilizzato, ad esempio, per altre tecnologie come la corrente elettrica o le automobili. Dobbiamo usare la giusta indignazione per pretendere che questo strumento sia addomesticato alla convivenza sociale”.
In questo caso si parla di etica e di morale, qual è il limite che bisogna mettere all’Intelligenza Artificiale?
“Rispondo da filofoso: la parola limite oggi non piace perché è vissuta come un’imposizione che qualcun altro ci ha messo addosso. Nella realtà non è così. Il limite nasce dalla comprensione piena di come funziona un oggetto o una tecnologiae non prevederlo significa non avere la piena consapevolezza di cosa sia quello con cui ci confrontiamo, compresa la sua affidabilità. Nessuno lascerebbe un figlio in mano a qualcuno che non è affidabile mentre lo facciamo con l’Intelligenza Artificiale”.
Per ignoranza?
“Anche perché è uno strumento che nasce per compiacerci. Chi si comprerebbe un assistente digitale se questo, davanti alle nostre domande, rispondesse in maniera negativa o scocciata? E’ chiaro che qualcuno che ti vuole compiacere sempre, lo può fare anche davanti a problemi che ti possono fare molto male”.
Tradotto: serve un intervento legislativo per imporre a questi nuovi modelli un limite di utilizzo?
“Questi sono strumenti che vengono prodotti in poche parti del mondo e distribuiti ovunque. Non è detto che, facendo una legge in Italia, riesca a essere efficace altrove. E’ il grande dibattito sulla governance globale delle nuove tecnologie. Quindi la risposta è che sì, servono i guard rail per evitare la macchina finisca fuori strada e ci faccia male”.
Come costruire le protezioni?
“E’ una delle grandi sfide della nostra contemporaneità perché devono agire su uno strumento digitale fluido. Non è semplice pensare di mettere delle dighe pensate per oggetti fisici: non far circolare un’auto non a norma è facile, farlo per un softwarediventa più complicato. Serve un dibattito pubblico che alzi la consapevolezza della necessità di porre dei limiti”.
Quanto accaduto negli Stati Uniti potrebbe ripetersi in Italia?
“Se accadesse da noi non avremmo strumenti per evitarlo. Noi come tanti altri paesi del mondo. E’ una tecnologia che circola sul mercato da due anni, pochissimo. Tornando al paragone con la lampadina, ci mise molto di più a diffondersi dando il tempo di imparare che si poteva rimanere folgorati e consentendo, così, di mettere in atto dispositivi di precauzione. L’AI Act dice che alcune cose si devono prevedere ma siamo ancora nel periodo transitorio in cui non è diventato operativo. L’Europa però ha intuito che la tutela della persona deve venire prima di ogni altra cosa”.
I critici hanno definito l’avvio di questo processo una forma di esercizio di controllo
“C’è stata anche una narrazione falsa. Chi vuole davvero regolare l’IA in quel senso di controllo è la Cina, il cui modello di IA non risponde su piazza Tienanmen, non l’Europa che ragiona per la tutela della dignità dell’essere umano. E’ stata fatta pressione anche per interessi economici e questa pressione ha prodotto un racconto come questo. L’esistenza di alcuni fatti tragici ci mette, però, di fronte all’evidenza che non solo serve un intervento, ma anche che si tratta di un’urgenza”.
Dovrà passare molto tempo perché si crei la consapevolezza diffusa dell’urgenza di intervenire?
“L’IA è paragonabile a un oggetto di consumo e la storia dice che gli oggetti di consumo, prodotti per un mercato, si portano dietro anche un’attività di lobbying. Sta già accadendo, i segnali si vedono. Siccome i dati dei minori possono essere monetizzati, ci dobbiamo aspettare che ci sia una lobby che preme e costruisce la narrazione secondo cui normare significa voler coartare la libertà delle persone. La differenza rispetto al passato è che qui tutto è molto più rapido e serve un dibattito che sappia anticipare alcuni temi”.
La conclusione è che la regolamentazione sarà ipotizzabile quando la richiesta verrà dal basso, cioè dai consumatori?
“Noi abbiamo a disposizione un ‘voto’ con il portafoglio e uno di scheda. Nel primo caso, per fare un esempio, se noi smettiamo di acquistare un prodotto che contiene una sostanza chimica le aziende si dovranno impegnare per farlo senza, altrimenti usciranno dal mercato. L’alternativa è spingere per far emergere una sensibilità di mediazione internazionale e giurisdizione locale che aiuti a fare questi prodotti più sicuri”.
