Usaf
(Usaf)
Difesa e Aerospazio

Il drone che colpisce il suo comando non esiste. Era un'ipotesi

Nessun drone dotato di intelligenza artificiale si è ribellato attaccando il suo comando. Era, invece, un'ipotesi per analizzare ogni aspetto delle operazioni di guerra autonome

L'aviazione americana ha risposto ai commenti fatti da un colonnello del suo Servizio sperimentale in merito a una simulazione nella quale un drone avrebbe superato in astuzia e abilità i suoi programmatori e piloti grazie all'intelligenza artificiale, concludendo l'esercizio uccidendoli. L'episodio, condiviso sui social, è diventato virale ed è stato ripreso da diversi giornali in tutto il mondo come se si fosse trattato di una esercitazione effettivamente svolta. Non era così: la portavoce dell'Air Force Ann Stefanek ha dichiarato ieri, 2 giugno: “I commenti del colonnello sono stati probabilmente ascoltati fuori dal contesto, l'Usaf non ha condotto alcuna simulazione di tali droni dotati di AI e rimane impegnata nell'uso etico e responsabile di questa tecnologia. Quello descritto era un ipotetico esperimento, non una simulazione avvenuta.”

L'episodio del drone assassino è stato inizialmente attribuito al colonnello Tucker Hamilton, capo delle operazioni di intelligenza artificiale del 96° Test Wing Operations Group presso la base aeronautica di Eglin, in Florida, che ne aveva parlato al vertice Fcas 23 della Royal Aeronautical Society, avvenuto nel maggio scorso. Successivamente, il testo dell'intervento era stato aggiornato per includere ulteriori commenti di Hamilton, il quale aveva affermato di essersi semplicemente espresso male durante la conferenza. “Non abbiamo mai eseguito quell'esperimento, non ne avremmo bisogno per renderci conto che si tratta comunque di un risultato negativo plausibile”, si era corretto Hamilton, spiegando: “nonostante questa sia un'ipotesi, illustra le sfide reali poste dalle capacità basate sull'intelligenza artificiale ed è il motivo per cui l'Air Force è impegnata nel suo sviluppo etico”.

Il Dipartimento della Difesa Usa ha sempre considerato l'IA come un vantaggio tecnologico rivoluzionario per le forze armate statunitensi, investendo miliardi di dollari e creando il Chief Digital and Artificial Intelligence Office (Cdai) alla fine del 2021, nel quale sarebbero in corso più di 685 progetti, inclusi molti legati ai principali sistemi d'arma, finanziati dal bilancio fiscale del Pentagono, che per il 2024 prevede 1,8 miliardi di dollari soltanto per iniziative di intelligenza artificiale.

La valutazione di Hamilton sulla plausibilità di droni “canaglia”, per quanto teorica, coincide con gli avvertimenti fatti nei giorni scorsi da importanti scienziati e ingegneri che, in una lettera aperta, dichiaravano la pericolosità di perdere il controllo di tale tecnologia.

Hamilton invece, nel suo discorso, descrisse una simulazione nella quale, a un drone dotato di intelligenza artificiale, era stata assegnata una missione per trovare e distruggere difese aeree nemiche. Con un essere umano che avrebbe dovuto dare al drone l'autorizzazione finale per colpire o meno. L'ipotesi era che agli algoritmi era stato detto che distruggere il sito missilistico terra-aria era l'opzione preferibile. Quindi l'intelligenza artificiale ha deciso che le istruzioni dell'umano stavano ostacolando la sua missione e ha attaccato l'operatore e l'infrastruttura di comando e controllo usata per trasmettere le istruzioni dirette a lui. In altre parole si è trattato di un'ipotesi simulata nella quale il drone aveva “tradito” perché gli stava impedendo di raggiungere l'obiettivo. Hamilton aveva spiegato: “Abbiamo addestrato il sistema a non uccidere l'operatore, quindi ha cominciato a distruggere la torre di comunicazione che l'operatore utilizza per comunicare l'ordine di non colpire il bersaglio”.

Già all'inizio del 2022 l'ex segretario dell'aeronautica Deborah Lee James dichiarò che l'Air Force avrebbe dovuto essere cauta e considerare questioni etiche prima di una guerra con sistemi autonomi, poiché mentre i sistemi di intelligenza artificiale dei droni sarebbero stati progettati per apprendere e agire da soli, come eseguire manovre evasive, dubitava che l'Air Force avrebbe consentito a un sistema autonomo di decidere di cambiare il proprio bersaglio. La realtà è che nell'ambito militare, con gli operatori che devono prendere decisioni rapide e gestire sistemi informatici sempre più complesse, l'uso di AI diventerà fondamentale per mantenere il vantaggio. Per questo si stanno intensificando gli sforzi per mettere in campo droni autonomi o semiautonomi definiti “velivoli da combattimento collaborativi”, in grado di volare insieme a jet come gli F-35 e i loro successori. I droni accompagnerebbero i velivoli con equipaggio nei combattimento svolgendo una serie di missioni che prevedono comunque la capacità di prendere decisioni autonome, sia per condurre missioni di ricognizione raccoglierebbero informazioni, sia per colpire obiettivi con i propri missili, disturbando i segnali nemici o servendo da esche per attirare il fuoco nemico lontano dai caccia con pilota umano. E proprio nell'anno fiscale 2024 è previsto il rinnovo del finanziamento del progetto Venom attivo dal 2017 (dieci milioni di dollari l'anno per cinque anni), per sperimentare i software di volo autonomo nei caccia F-16 opportunamente modificati. Si tratta in realtà della fase successiva del progetto Vista X-62A di Lockheed-Martin. Con Venom, sigla di Viper Experimentation and Next-gen Operations Model, l'aviazione Usa caricherà un codice di condotta autonomo in sei esemplari di F-16, i sui piloti decolleranno portandoli nell'area di prova. A quel punto il software prenderà il controllo e condurrà gli esperimenti di combattimento in volo.

I più letti

avatar-icon

Sergio Barlocchetti

Milanese, è ingegnere, pilota e giornalista. Da 30 anni nel settore aerospaziale, lo segue anche in veste di analista. Docente di materie tecniche presso la scuola di volo AeC Milano è autore di diversi libri.

Read More