cybersecurity
(iStock)
Cyber Security

Da “dual use” al “dual think”

La Rubrica - Cybersecurity Week

In queste ultime settimane mi sono imbattuto in una straordinaria quantità di opinioni, ricerche e studi sul tema del rapporto tra cybersecurity e intelligenza artificiale. E’ stato interessante notare come i pareri e le previsioni erano equamente suddivisi in due schieramenti opposti. Da un lato c’è chi sostiene che le IA saranno la soluzione definitiva ai problemi di sicurezza di dati e sistemi, dall’altro chi afferma che esse rappresenteranno una minaccia senza precedenti perché capaci di eseguire attacchi sempre più raffinati.

Per quanto mi riguarda credo che non cambierà nulla, almeno nel breve periodo, perché da sempre la stragrande maggioranza delle tecnologie è soggetta al cosiddetto “dual use”: quello che puoi usare a fin di bene puoi parimenti usarlo per fare del male. A partire dal coltello di selce è sempre stato così, e non c’è una buona ragione perché questa volta debba andare diversamente, dato che noi esseri umani non siamo cambiati. Tutto almeno fino a quando riusciremo a comprendere la tecnologia, e quindi a controllarla. Faccio tale precisazione perché la vera questione e proprio questa.

E’ vero che le intelligenze artificiali saranno probabilmente in grado di generare forme di attacchi cyber sempre più sofisticate e di trovare vulnerabilità nei sistemi, invisibili a noi umani. Allo stesso modo lavoreranno altri algoritmi intelligenti con obiettivi di prevenzione. Come ho scritto, il ragionamento sarà valido fino a quando la mano sulla testiera sarà quella dell’essere umano, ma tutto potrebbe cambiare nel momento in cui la tecnologia non avrà più necessità, per svolgere i suoi compiti, delle nostre dita. L’imperscrutabilità dell’intelligenza artificiale è ormai al centro del dibattito non soltanto tecnologico, ma anche politico, ma lasciatemi dire che il punto è invece di tipo filosofico. In effetti stiamo scalando di un livello, e in futuro il tema del “dual use” potrebbe essere un qualcosa di superato perché, tante più attività delegheremo alle intelligenze artificiali, tanto più saranno chiamate a prendere decisioni che avranno delle conseguenze, ma su quali elementi e sulla base di quali principi etici lo faranno? Domani forse dovremo affrontare un problema di “dual think” e non di “dual use”. Non si tratterà di fare attenzione a come la tecnologia possa essere utilizzata, ma a come la tecnologia “la pensa”. In altre parole, più antropocentriche: la penserà come noi umani oppure no? Nel primo caso avremo i soliti problemi (ci saranno i “buoni” e i “cattivi” a seconda dei punti di vista) nel secondo ne avremmo di molto diversi e non saprei se più o meno gravi.

I più letti

avatar-icon

Alessandro Curioni