Intelligenza artificiale
(iStock)
Cyber Security

Si, l'Intelligenza Artificiale è un'arma

La Rubrica - Cybersecurity Week

Per qualche strana ragione quando ho letto le prime notizie sul database Lavender utilizzato da Israele, mi è venuta in mente la celebre battuta del film Apocalypse Now “Amo l'odore del napalm alla mattina. Ha il profumo della vittoria”, pronunciata da Robert Duvall che interpreta il tenente colonnello Bill Kilgore. Forse per la semplice ragione che c’è di mezzo un “odore” o magari perché in entrambi i casi c’è qualcosa che stride nel significato delle parole rispetto al contesto in cui sono usate. In ogni caso vi è un tragico senso dell’ironia nel chiamare “lavanda”, una erba il cui profumo richiama immediatamente il pulito, quello che alcuni hanno definito come un’intelligenza artificiale, altri come un più “semplice” database, il cui obiettivo è fare piazza pulita dei nemici di Israele.

Come ormai tutti sanno o dovrebbero sapere, la scorsa settimana, la rivista israelo-palestinese “+972”, ha raccolto le testimonianze di sei componenti dei servizi segreti israeliani, che hanno spiegato come Lavender sia un sistema in grado di correlare diverse informazioni di intelligence per individuare soggetti legate alle milizie palestinesi. Tuttavia, quello che probabilmente ha scosso i media, più dei 37 mila obiettivi individuati da Lavender, è stata l’affermazione di uno degli 007 che chiariva come la validazione umana delle conclusioni a cui era giunto il sistema dovrebbe richiedere non più di una ventina di secondi.

Onestamente fatico molto a essere più “scosso” o inquieto di quanto lo fossi prima di apprendere dell’esistenza di Lavender. In una guerra ibrida, in cui la tecnologia gioca un ruolo essenziale, non di rado sono pochi secondi a fare la differenza tra vincere e perdere. In questo tipo di contesto la “lentezza” umana viene poco tollerata, a maggior ragione se esiste un’alternativa statisticamente accettabile. Questo, però, dovrebbe essere ben noto a tutti da tempo, come dovrebbe essere evidente che le intelligenze artificiali sono esattamente delle macchine statistiche che forniscono risultati ragionevolmente accettabili, e che senza dubbio sbagliano, ma con una certa “moderazione”. Quello che mi stupisce è il frenetico entusiasmo con cui il mondo intero si è lanciato nella corsa all’IA, senza tenere ben presente che, a partire dalla lancia di selce, la stragrande maggioranza delle innovazioni tecniche è soggetta alla regola del “dual use”: il coltello che usi per tagliare il salame lo puoi utilizzare anche per uccidere una persona. Inizio ad avere la sgradevole sensazione che molti siano preoccupati possa accadere qualcosa di veramente grave che produca una reazione istintiva e scomposta dell’opinione pubblica; qualcosa come l’incidente di Chernobyl a cui è seguito l’abbandono dell’energia nucleare, finendo per buttare via il bambino insieme all’acqua sporca.

Non meno inquietante trovo l’infinito parlare di regolamentazioni dell’IA a cui segue poco o nulla. Anche in questo caso sembra esista il terrore che un intervento normativo di qualche “significato” possa rallentare la corsa. In buona sostanza, mi sembra che le logiche militari che impongono di ragionare in termini di compromesso tra obiettivi raggiunti e danni collaterali stiano diventando ovunque la regola. Forse questo significa che siamo tutti coinvolti in una qualche forma di guerra. Di certo pochi lo sanno, ancora meno sono in grado di comprenderne la natura e di certo nessuno sembra intenzionato a smetterla.

I più letti

avatar-icon

Alessandro Curioni