Attacchi cyber
(iStock)
Tecnologia

IA: la tecnologia USA a disposizione di potenze ostili

Dietro i motivi di una stretta all’esportazione, mentre l’Italia si muove per adottare l’Ai Act europeo

Realizzazione di armi biologiche, creazione di contenuti falsi per campagne di disinformazione, sviluppo di nuovi strumenti capaci di dar vita ad attacchi cyber più ampi, efficienti e veloci: sono questi i timori che hanno mosso l’amministrazione Biden ad aprire un nuovo fronte nei suoi sforzi per tutelare l’intelligenza artificiale statunitense dai tentativi russi e cinesi di acquisirne i modelli più avanzati. Mercoledì un gruppo bipartisan di deputati e senatori USA hanno approvato infatti un provvedimento che renderà più semplici gli sforzi della Casa Bianca nell’imporre delle barriere all’esportazione di preziose tecnologie statunitensi nel settore dell’IA, con l’obbiettivo di prevenirne l’utilizzo da parte di potenze straniere ostili.

Le preoccupazioni sorgono dalle analisi dei ricercatori di GryphonScientific, gruppo leader nella biosicurezza e nell’utilizzo dell’IA nel settore, e di Rand Corporation, think tank sostenuto dal dipartimento della difesa USA, riguardo le informazioni potenzialmente fornite dai modelli avanzati di IA nella implementazione di armi biologiche: attraverso questi strumenti, infatti, è ormai possibile accedere a livelli di conoscenza equiparabili a quelli di un post dottorato nella gestione di problematiche legate a virus pandemici.

Anche nella cybersicurezza, però, le minacce non mancano: nel report di febbraio Microsoft ha dichiarato di aver tracciato l’attività di gruppi hacker affiliati ai governi cinese e nordcoreano, all’intelligence militare russa e alla Guardia Rivoluzionaria iraniana nel tentativo di perfezionare le loro campagne offensive nel cyberspazio attraverso l’utilizzo dei suoi large languagemodels che sono alla base delle capacità di risposta dell’IA. Il dipartimento di Stato USA per la sicurezza interna ha sottolineato come ciò possa essere utilizzato per attacchi più efficaci contro le infrastrutture critiche, tra cui gli oleodotti e le reti ferroviarie, mentre la Cina sta sviluppando programmi di intelligenza artificiale generativa a sostegno degli attacchi malware: queste tecnologie possono minare le difese cyber USA e da qui l’allarme accolto da Congresso.

Ma non è una criticità legata unicamente alle alte sfere geopolitiche. “L’incremento degli attacchi e l’evoluzione tecnologica sono problematiche che, comprensibilmente, preoccupano i governi e le organizzazioni globali, ma nessuno è al sicuro: anche piccole aziende possono essere oggetto di attacchi mirati. La strategia è comunque quella di indebolire un Sistema, addirittura un intero Stato, creando incertezza, paura, sfiducia. E pensare che il problema sia “ad un altro livello” è un errore potenzialmente molto grave”, sottolinea Pierguido Iezzi Business Strategic Director di Tinexta Cyber.

Ma i segnali più inquietanti si registrano in uno dei settori più insidiosi del conflitto nella quinta dimensione, come è ormai definito il cyberspazio nella dottrina bellica: quello della propaganda e della disinformazione. Qui l’utilizzo delle tecnologie IA statunitensi, come ad esempio Midjourney – la piattaforma di intelligenza artificiale creata da David Holtz che permette di creare foto realistiche come quella di Papa Francesco con indosso un lungo piumino bianco che ha spopolato sui social qualche mese fa – sta conoscendo una notevole accelerazione nella creazione di immagini e video falsi in vista delle elezioni americane. Anche OpenAI e Microsoft non sono esenti da tale utilizzo, nonostante le politiche adottate per contrastare la creazione di contenuti fuorvianti. L’intelligenza artificiale è usata anche per imitare e distorcere il contenuto di articoli riguardanti l’attualità politica, con l’intento di diffondere false informazioni. Cosa che sta regolarmente avvenendo, eludendo gli sforzi delle principali piattaforme di social media come Facebook, X e YouTube nella rimozione dei deepfakes. Non a caso il consigliere della sicurezza nazionale USA, Jake Sullivan, ha ammesso mercoledì scorso che il problema non è di facile soluzione, perché combina le capacità della IA con “l’intento di attori statali e non statali di utilizzare la disinformazione su larga scala per turbare l’ordine democratico, promuovere la propria propaganda e rimodellare la percezione globale. In questo momento – ha concluso Sullivan – gli attaccanti stanno battendo di gran lunga la difesa”.

“Siamo talmente bombardati che ormai si sta perdendo la forza – e quasi la volontà - di verificare e dubitare delle notizie. Un po’ alla volta la norma, tra i giovani e tra i meno giovani, sta diventando quella di credere a tutto ma senza troppa convinzione (o viceversa: non credo a niente ma chissà?). Di fatto è una specie di pre-atrofia cerebrale che prepara il terreno ad una totale apatia, a un disinteresse verso tutto ciò che è sociale, comunitario, lontano dal mio controllo o dal mio spazio personale. Terrenofertile per plasmare opinioni e narrative”, commenta Andrea Monti, Direttore Generale di Tinexta Cyber.

Di fatto, però, l’IA non può essere ritenuta responsabile di tali azioni: “è solo uno strumento che, come molti altri del dominio cyber, può essere soggetto a un uso duale. Inoltre, quando agisce in autonomia, lo fa sulla base di algoritmi predisposti dall’uomo o di un addestramento tramite dati provenienti da molteplici fonti. Ecco allora che un presidio umano è sempre necessario, così come i sistemi di log collection diventano essenziali per l’esonero di responsabilità: il tracciamento delle operazioni, seppur complicato, può prevenire o perseguire eventuali abusi e illeciti. “È cruciale, pertanto, sviluppare una governance efficace e sostenibile che includa controlli tecnologici e normativi adeguati” sottolinea Monti.

Sull’altra sponda dell’Atlantico – dove invero non sono ancora sviluppate piattaforme di intelligenza artificiale paragonabili a quelle nate negli Stati Uniti – l’Italia si sta muovendo nell’adottare l’Ai Act europeo, ponendo limiti e sanzionando penalmente la diffusione di contenuti illegali. Sicuramente un buon passo avanti rispetto al recente passato, ma ciò che serve è un ribaltamento della prospettiva. L’IA è frutto dell’uomo ed è fallibile proprio come lo è il suo creatore. Norme e regolamenti sono necessari, ma è ben più urgente far maturare la consapevolezza della nuova era in cui stiamo entrando. Si è sovrani dei propri dati per davvero solo se si ha la piena consapevolezza di cosa ciò possa significare: la realtà è che non esiste un programma di formazione e sensibilizzazione mirato a prepararci al nuovo. Se l’uomo deve essere davvero al centro deve sapere quali sono i margini, le opportunità, i possibili rischi.

È evidente come sia insorta la necessità di “una formazione per un vero change habit AI management – continua Iezzi -, dove pubblico e privato sono chiamati a collaborare: ogni dipendente formato in questo settore diventa un portatore sano di conoscenza che poi diffonderà nel suo ambiente lavorativo, familiare e amicale. Il pericolo è altrimenti ripetere gli errori compiuti con l’avvento dei social network, quando i rischi sul loro utilizzo e sulla cessione dei dati personali sono stati ignorati se non addirittura sconosciuti ai più per oltre un decennio”. Solo così, con una vera conoscenza di ciò che comporta l’intelligenza artificiale, l’uomo potrà essere autenticamente al centro di questo nuovo paradigma destinato a mutare il destino della nostra specie.

I più letti

avatar-icon

Redazione Panorama