Quando l'intelligenza artificiale è cattiva: la rivolta delle macchine è vicina
troryANCAS @ Flickr
Tecnologia

Quando l'intelligenza artificiale è cattiva: la rivolta delle macchine è vicina

La prospettiva non è più fantascienza, diversi studi valutano gli scenari più pericolosi. Ecco come ci stiamo preparando, a partire da Google

Nel 2013 un gruppo di scienziati sviluppa un algoritmo che dovrebbe simulare il comportamento di un giocatore umano di Tetris. L’algoritmo è stato programmato attraverso un sistema noto come reinforcement learning, in soldoni: invece che imboccare l’intelligenza artificiale con un set di azioni da compiere, gli viene lasciata una relativa libertà d’azione che può essere indirizzata attraverso un sistema di ricompense. Poiché l’essere umano apprende nuovi comportamenti in questa maniera, l’idea era che così facendo si sarebbe potuto ottenere un cervello artificiale simile a quello umano. Nello specifico, i ricercatori hanno programmato il giocatore di Tetris per scelga sempre la mossa che garantisce la maggior ricompensa; ma appena l’algoritmo è viene messo alla prova, diventa chiaro che questo approccio è fallato: per ottenere la massima ricompensa (ossia, evitare che lo schermo si riempisse di mattoncini), l’algoritmo sceglie la via più semplice: mette in pausa il gioco a tempo indeterminato.

Questo esempio aiuta a spiegare perché sia irragionevole (e sconveniente) cercare nelle intelligenze artificiali un corrispettivo dell’intelligenza umana, e allo stesso tempo, fornisce un punto di partenza per capire perché un’intelligenza artificiale superiore potrebbe rivelarsi pericolosa per l’umanità.

Fino a poco tempo fa, se qualcuno si fosse azzardato ad andare predicando un’imminente rivoluzione di macchine senzienti, sarebbe stato preso per un pazzo paranoico o, nel migliore dei casi, per un nerd che ha passato troppo tempo chiuso in uno scantinato a riguardarsi Matrix e Ex Machina. Negli ultimi anni però le cose sono cambiate. Da quando Google ha rilevato a suon di soldoni alcune tra le più avveniristiche aziende specializzate in robotica e intelligenza artificiale, e da quando Facebook, Amazon e compagnia si sono messe in scia, la prospettiva di una sommossa robotica planetaria appare ogni giorno meno ridicola.

Nel caso in cui ancora non siate convinti, considerate che in questi giorni Google ha annunciato di stare lavorando a una specie di “pulsante d’emergenza” per disattivare un’intelligenza artificiale in caso di “inconvenienti.” Il che può suonare come una cosa semplice, l’equivalente sofisticato della sicura di una pistola, in realtà la situazione è assai più complessa. Bisogna infatti tenere conto che non stiamo parlando di robot ingessati e duri di comprendonio, stiamo parlando di macchine progettate per imparare e avere un certo grado di autonomia. Cosa impedisce allora, nel caso in cui venga sviluppato un sistema per arrestare l’attività di un androide, che questo capisca come disinnescare questo sistema?

I ricercatori di Deep Mind, una costola di Google specializzata in machine learning, hanno trovato l’uovo di Colombo: l’unica soluzione è ingannare la IA fin dalla sua progettazione. Se abbiamo paura che la nostra IA sia così abile da inventarsi un modo per dribblare i nostri tentativi di spegnerla, allora bisogna fare in modo che quell’eventuale intervento umano esterno venga percepito da essa come una propria scelta, ossia come parte del set di compiti per cui è stata programmata.

Ancora non è chiaro se il sistema brevettato potrà fornire un pulsante d’emergenza affidabile, quello che è chiaro invece è che le grandi corporation sono spaventate dai rischi derivanti dal progresso in ambito IA, e che noi dovremmo esserlo ancora di più.

Lo scorso mese due ricercatori della Cornell University hanno pubblicato uno studio intitolato Unethical Research: How to Create a Malevolent Artificial Intelligence in cui viene valutata la possibilità che, per errore o per volontà, venga progettata un’intelligenza artificiale malvagia e come questo scenario possa essere evitato. Uno dei nodi più difficili da sciogliere riguarda la scelta di rendere segreto o pubblico il codice sorgente, dal momento che nel primo caso si impedirebbe un effettivo controllo da parte di un’istituzione esterna, e nel secondo si rischierebbe di mettere uno strumento potenzialmente letale nelle mani di chiunque. 

Il topos della creatura che si ribella al creatore affonda le radici in profondità nella storia della letteratura. Prima ancora di Isaac Asimov e di Philip Dick, di William Gibson e di Arthur C. Clarke, Mary Shelley aveva già esplorato parte dell'orizzonte paventato dai big dell'hi-tech nel suo Frankenstein: nel momento stesso in cui si sceglie di mettere al mondo qualcosa di simile a noi e di dotare quella creazione di un'autonomia vicina alla nostra, bisogna prepararsi alla possibilità che questa creazione sfugga al nostro controllo, e che agisca secondo parametri diversi da quelli che noi riteniamo corretti; parametri che oltre un certo livello, potrebbero addirittura risultarci incomprensibili.

I più letti

avatar-icon

Fabio Deotto