Intelligenza artificiale, ecco quali sono i veri rischi

Elon Musk (quello della Tesla nello Spazio) ha fondato sulla fine del 2015 OpenAI, un’organizzazione senza scopo di lucro che intende studiare i rischi esistenziali dell’Intelligenza Artificiale. Lo scopo è lavorare con enti e istituzioni per portare avanti progetti concreti ma con un’etica di fondo, così da non ritrovarci, tra qualche anno, sommersi dalle macchine.

Nessun Terminator ma problemi concreti

La stampa internazionale ha fatto presto a disegnare intorno all’operato di OpenAI una cricca di scienziati anacronistici, spaventati da un futuro alla Terminator. Tuttavia Musk, più di una volta, ha preso le distanze da temi del genere, spiegando che alla base della no profit vi è altro.

Cosa? Prima di tutto il timore che un eccessivo affidamento dell’uomo alla tecnologia di livello successivo, che molti chiamano senziente, finisca poi col ridurci a soggetti incapaci di ragionare, prendere decisioni, mettersi da una parte o dall’altra. Il timore è reale: nei prossimi anni non guideremo più, non ci parleremo più, viaggeremo per pochi minuti, senza goderci il panorama, penseremo meno agli affetti, impegnati nel lavoro.

Futuro reale

Non si tratta di un panorama apocalittico ma di uno scenario tradotto in automobili self-driving, realtà virtuale, Hyperloop, estrema digitalizzazione degli ambienti. Tutti concetti la cui realizzazione è dietro l’angolo, distante una manciata di mesi e che dobbiamo imparare a governare. L’Intelligenza Artificiale cambierà radicalmente la società in meglio e in peggio, una doppia faccia della stessa medaglia.

Gli esperti si confrontano

Un risultato a cui sono giunti 26 esperti, che hanno realizzato un report di 100 pagine, disponibile qui, in cui si analizza il vasto settore della AI. Intitolato "L'uso dannoso dell'Intelligenza Artificiale: previsione, prevenzione e mitigazione", il documento definisce le tecnologie AI portatrici di una doppia valenza: ogni soluzione può essere, al tempo stesso, un bene o un male, a seconda delle persone con cui ha a che fare e di chi ne gestisce le attività di base.

Nessuna indipendenza

Ad oggi, i progetti AI presuppongono comunque l’intervento dell’uomo. Pensiamo al robot Pepper, un piccolo automa che può camminare e interagire quasi come un bambino. Pepper ha un’autonomia limitata e non è in grado di cominciare una conversazione se non riceve un comando particolare, che si tratti di una parola d’ordine o di un input da un computer connesso senza fili. Da qui ai prossimi anni non vediamo tecnologie davvero indipendenti perché non vi è modo, per quanto ne sappiamo, di lasciar vagare macchine e droni per il mondo, evitando che vadano a sbattere da qualche parte e non si rialzino più.

Un drone non è veramente un drone

È quanto afferma un pioniere come Stephen Hawking, quando ricorda che la tecnologia è il risultato di quanto previsto dalla scienza. Il problema qui è che un’eccessiva crescita delle competenze della AI rischia di trasformare oggetti nati per scopi utili in pericoli ambulanti. Facciamo qualche esempio sulla base dell’indagine riportata sopra.

  • Un drone può: consegnare pacchi/uccidere persone se hackerato da terroristi

  • Un robot in fabbrica può: velocizzare la catena di montaggio/distruggere milioni di pezzi se subentra un malfunzionamento

  • Un algoritmo di controllo fake newspuò: rendere i social network più veritieri/censurare notizie vere se non impostato correttamente

  • Un computer super potentepuò: scovare falle e bug nei sistemi operativi/sfruttare questi per creare virus e malware ad-hoc

Più reale del reale

L’Intelligenza Artificiale non è IL bene o IL male ma uno strumento (tanti, in realtà) aperto ad ogni possibilità, con un ago della bilancia parecchio sensibile. Chi può dire se l’algoritmo applicato alla riproduzione 3D di Vladimir Putin e Donald Trump è un traguardo per l’informatica o una minaccia all’umanità?

Da un lato rappresenta un punto di arrivo fondamentale per applicazioni di creatività digitale, dall’altro un’arma dall’inestimabile valore che i cyberterroristi potrebbero usare per scatenare il panico negli USA, magari interferendo con le trasmissioni di un canale nazionale.

È evidente che lo sviluppo della AI porta con sé interrogativi sensati, che poco hanno a che vedere con le visioni apocalittiche del cinema di Hollywood. C’è chi, come alcuni ricercatori di Google e dell’Università di Oxford, ha pensato di creare un ipotetico bottone rosso, una linea di codice che, se attivata, spegne ogni tipo di macchina dotata di Intelligenza Artificiale.

Consideriamolo un pulsante di emergenza, da utilizzare quando ci accorgeremo di essere andati troppo oltre. Il limite massimo è fissato al 2115, anno in cui per il Future of Humanity Institute, la società sarà pervasa da una AI onnipresente: case, macchine, città, gadget in tasca, in testa e nelle borse. Innovazione ad ogni costo, va bene, ma con un’etica di fondo che ci dia ancora quella supremazia persa, per ora, solo al cinema.

Per saperne di più:

YOU MAY ALSO LIKE