Home » Attualità » Esteri » Intelligenza artificiale e armi autonome: il Pentagono pronto a imporre la legge di guerra

Intelligenza artificiale e armi autonome: il Pentagono pronto a imporre la legge di guerra

Intelligenza artificiale e armi autonome: il Pentagono pronto a imporre la legge di guerra

Il segretario alla Guerra Pete Hegseth minaccia l’interruzione dei contratti governativi senza acceso totale al software IA. L’azienda di Dario Amodei mantiene le sue “linee rosse”, entro venerdì la decisione definitiva.

Da qualche settimana è in corso un duro scontro tra il Pentagono e Anthropic, una delle più importanti aziende americane di intelligenza artificiale, il cui prodotto di punta è il software IA Claude.

Se l’accoppiamento tra intelligenza artificiale e utilizzo militare non suona certo nuovo, il motivo dello scontro tra il Dipartimento della Guerra americano e l’azienda californiana esemplifica perfettamente i timori dell’accoppiamento tra questi due campi, inesorabilmente sempre più interconnessi.

I legami tra Anthropic e Pentagono

L’azienda di IA, fondata e diretta dall’imprenditore americano di ascendenza italiana Dario Amodei, ha firmato nel luglio dello scorso anno un contratto da 200 milioni con il Pentagono.

Grazie a esso, Anthropic ha messo a disposizione il proprio modello Claude sulle reti classificate del Dipartimento della Guerra per lo svolgimento di operazioni di intelligence e pianificazione missioni.

I motivi della disputa

L’accesso fornito al proprio modello non è stato però totale. Esistono infatti due cosiddette “guardie di sicurezza”, o linee rosse, se preferiamo: niente armi completamente autonome (senza supervisione umana) e niente sorveglianza di massa domestica dei cittadini americani.

Il Pentagono, guidato dal Segretario Pete Hegseth, pretende invece l’uso “per tutti gli scopi leciti”, senza alcun tipo di restrizione aziendale.

Secondo una fonte citata dalla Cnn, Anthropic ritiene che l’IA non sia sufficientemente affidabile per azionare armi e che non esistano ancora leggi o regolamenti che disciplinino l’uso dell’IA nella sorveglianza di massa dei cittadini americani.

Trattative ancora in corso tra Anthropic e Pentagono

Le due posizioni sono sostanzialmente antitetiche e pressoché invariate negli ultimi mesi, con Anthropic che sembra non avere alcuna intenzione di allentare le restrizioni d’uso del suo software per scopi militari, secondo quanto riportato da Reuters.

I colloqui con il Pentagono, tuttavia, continuano. Durante l’ultimo incontro, andato in scena martedì, il segretario Hegseth avrebbe lanciato un ultimatum ad Amodei: accettare di fornire pieno utilizzo del software IA o affrontare le azioni drastiche del governo.

Le minacce del Pentagono

La minaccia è reale e, secondo una fonte della Cnn, ha anche una scadenza. Se Anthropic non si adeguerà alle richieste del Pentagono entro le 17:00 di venerdì 28 febbraio dovrà affrontare conseguenze serie.

In caso di mancato adempimento da parte dell’azienda, Hegseth garantirà che “venga invocato il Defense Production Act (Dpa) nei confronti di Anthropic, obbligandola a fornire i propri servizi al Pentagono indipendentemente dalla sua volontà”. Hegseth definirà inoltre Anthropic un “supply chain risk”, un rischio per la catena di approvvigionamento.

Cos’è il Defense Production Act

Il Dpa è una legge degli anni ’50 che conferisce al Presidente poteri eccezionali per influenzare le industrie private in situazioni di emergenza nazionale, tradizionalmente usata in tempo di guerra o crisi.

È stata invocata proprio da Trump durante la pandemia COVID-19, per obbligare General Motors e 3M a produrre ventilatori e mascherine. In questo caso, sarebbe usata per obbligare Anthropic a personalizzare il proprio modello secondo le esigenze del Pentagono, bypassando le restrizioni etiche dell’azienda.

La definizione di Supply chain risk

La contemporanea definizione di supply chain risk sarebbe un colpo molto più grave per Anthropic.

Questa designazione è solitamente riservata ad aziende legate agli avversari stranieri, come Russia o Cina, e che obbligherebbe qualsiasi azienda che abbia anche solo un contratto governativo attivo a interrompere ogni rapporto con l’azienda di Dario Amodei.

Le conseguenze sarebbero pesantissime. Nvidia, Microsoft, Palantir, JP Morgan e Google, tutte aziende che intrattengono rapporti commerciali con Anthropic e aventi allo stesso tempo contratti governativi, dovrebbero interrompere l’utilizzo dei prodotti dell’azienda californiana.

C’è però un’evidente contraddizione in termini: se il Pentagono definisse Anthropic un “supply chain risk”, dunque un rischio per la sicurezza nazionale, come potrebbe al contempo invocare il Dpa per obbligarla a collaborare? Venerdì avremo una risposta.

© Riproduzione Riservata