BergamoScienza 2012 (4)
Scienza

L'intelligenza artificiale arriva a Bergamo

Fino al 15 ottobre, BergamoScienza ospita esperti internazionali per parlare di tutto: dall'origine della vita allo spazio ai robot.

Per 16 giorni, da sabato 30 settembre a domenica 15 ottobre, BergamoScienza ospiterà più di 200 eventi gratuiti: conferenze, laboratori interattivi, spettacoli, mostre, ai quali parteciperanno  scienziati di fama internazionale.

Sabato 14 ottobre alle 15.00, per esempio, il filosofo dell’Oxford Internet Institute Luciano Floridi parlerà di un tema assai discusso oggi: Le sfide dell'Intelligenza artificiale, raccontando come, sebbene ancora distanti da essere pienamente "intelligenti", queste tecnologie siano sempre più diffuse, ponendo sfide etiche e sociali senza precedenti.

Di Floridi è appena uscito per Cortina La quarta rivoluzione. Come l’infosfera sta trasformando il mondo. A Panorama anticipa alcune sue riflessioni sui limiti (ancora numerosi) e le potenzialità (importanti) dell’Intelligenza artificiale in vari settori.

di Luciano Floridi (testo raccolto da Daniela Mattalia)

L’Intelligenza artificiale come una minaccia per l’intera umanità? Non diciamo sciocchezze. Non siamo in un film di zombie. Continuare a propagandare questa idea è irresponsabile. Abbiamo una seria esigenza di riflettere sulle vere sfide che l’intelligenza artificiale pone. Che non sono il rischio di assumere il controllo del pianeta sostituendosi alla specie umana. L’intelligenza artificiale pone altri problemi, ha altri limiti. È molto di moda, ma bisogna aspettare che finisca la nottata e ci accorgeremo che questi oggetti non funzionano poi così bene.

Certo, oggi nessuno pensa di battere un computer a scacchi, ma questo non vuol dire che siccome l’iPhone gioca benissimo a scacchi è intelligente. Ha solo maggiore capacità di calcolo. Si possono fare miliardi e miliardi di calcoli con capacità di tipo statistico, ma l’intelligenza umana è altro.

Scientificamente parlando, non sappiamo nemmeno che cosa sia esattamente. Ci sono tanti modi di essere stupidi e per ciascuno di essi c’è un modo di essere intelligenti. Le neuroscienze sono agli albori, e invece la narrativa metaforica del mondo informatico paragona l’intelligenza artificiale al cervello umano. Non ha  molto senso, se non in modo vagamente metaforico. Vediamo invece alcune questioni serie.

Questione numero 1: attenti a delegare
Stiamo sempre più delegando queste macchine a prendere decisioni in vari settori: mercati finanziari, sicurezza, burocrazia, logistica, salute... Ma questi strumenti rispondono a logiche rigide e quando prendono abbagli lo scenario kafkiano è dietro l’angolo. Per quanto possano diventare più «intelligenti» la loro rigidità intrinseca rimane. Il mio robottino di casa pulisce il pavimento ma non sa tagliare l’erba. Ora, immaginiamo una persona che fosse in grado di pulire i vetri di casa ma non il pavimento. Ci verrebbe da dire che non è tanto intelligente. Sono macchine non flessibili, appena usciamo dalla banda stretta della loro operazionalità, crollano. Dobbiamo essere consapevoli dei limiti degli artefatti che stiamo costruendo.

Questione numero 2. Chi si adatta a chi?
Stiamo attenti a mettere nella stessa stanza l’Intelligenza artificiale e l’essere umano, perché chi si adatterà saremo noi: noi siamo in grado di adattarci ed evolvere, i robot non sono flessibili. Se noi introduciamo algoritmi nel mondo, saremo noi a dover risolver i loro problemi, non viceversa. Dobbiamo mettere noi stessi al centro dell’operazione e non l’efficacia del prodotto. Per capire: nei siti online c’è un sistema di «suggerimenti» automatico, il sito ti suggerisce, dal momento che hai comprato questo, di acquistare anche quest’altro e così via. È un meccanismo pericoloso, alla fine compri sempre la stessa cosa, fai sempre gli stessi viaggi, leggi gli stessi libri, fai sempre le stesse scelte che siano politiche o alimentari. Perché’ siamo fragili, influenzabili, e messi dentro un sistema di spinte ci facciamo  portare per mano dove vogliono gli algoritmi. Pessima idea, che mina l’autonomia dell’individuo.

Questione numero 3: gestire l’emergenza.
Stiamo creando strutture per gestire la complessità, come software e sistemi per il controllo aereo. E dipendiamo totalmente da queste strutture «smart». Ma quando qualcosa andrà storto, siamo sicuri che avremo la resilienza e la ridondanza sufficienti nel sistema informatizzato? L’Intelligenza non sta nell’assicurarsi che le cose non vadano mai male, ma che quando andranno male ci sia il minor danno possibile, magari anche nessun danno, e che il sistema “ceda” dove può essere più facile ripararlo, si pensi alle valvole o ai sistemi “salvavita”.

Questione numero 4. Senza lavoro.
Il mondo del lavoro e la disoccupazione sono un altro problema. Ma il problema non è tanto l’Intelligenza artificiale per sé, bensì la rapidità con cui sta avvenendo il processo di automazione: è troppo troppo veloce, molte persone vengono lasciate indietro. La rivoluzione agricola in passato ha richiesto millenni, quella industriale secoli, quella digitale decenni. Alle lunghe l’innovazione digitale sarà una cosa positiva ma l’impatto della sua velocità è enorme. Coloro che non perderanno il lavoro si troveranno in un contesto non più fatto per loro. Dobbiamo assicurarci che la società sia pronta ad aiutarli.

Questione numero 5. Di chi è la responsabilità?
Se le cose vanno male, in un contesto dove la fusione fra operazioni umane e artificiali è ormai elevata, come in ospedali, aziende, banche, in cui ci sono software, comitati, persone, di chi è la responsabilità? Il rischio è che alla fine non sia più di nessuno. Il Parlamento europeo sta discutendo una proposta di rendere in futuro certi tipi di robot avanzatissimi, se dovessero arrivare, «persone elettroniche». È una cattiva idea. Le persone sono o fisiche o legali (come un’azienda) per questioni di responsabilità. Se noi trasformiamo i robot in persone elettroniche, poi ce la dovremo riprendere con i robot, non con i loro proprietari, utenti, o costruttori. C’è uno spostamento di responsabilità. Se il mio robot taglia l’erba del mio prato e poi falcia le rose del vicino, lui dovrebbe incolpare il robot. Il rischio è la deresponsabilizzazione umana.

Le questioni viste sopra sono un buon esempio dei rischi seri che stiamo correndo. Ma non vorrei essere frainteso. Io sono favorevole all’Intelligenza artificiale, è un’opera d’arte dell’uomo. Stiamo costruendo artefatti che possono fare, e fanno, cose straordinarie, sono il genere di tecnologia di cui abbiamo bisogno oggi per prenderci cura della complessità. La società dell’informazione la gestiamo con l’Intelligenza artificiale, con strumenti che risolvono problemi molto complicati sotto il controllo umano, però.

Se ben gestita, l’Intelligenza artificiale può aiutare l’ambiente in modi molto significativi. Siamo prosciugando la Terra a livelli non più sostenibili, l’alleanza tra il verde dell’ambientalismo e il blu del digitale può dare grandi opportunità. Questa alleanza si concretizza in due manovre.
1. Fare molto di più con molto di meno: per esempio Google ha usato gli algoritmi di Deep Mind per ottimizzare il suo consumo di energia elettrica, riducendolo del 30 per cento. Cosa che si può mutuare in altri contesti, casa, edifici uffici, strade...
2. Far dialogare le cose: la raccolta dei rifiuti è un altro esempio. Ci sono camion che passano anche quando non ci sono rifiuti da portare via, ma se il bidone avesse un chip inserito, che comunica quando è il momento di svuotarlo, la raccolta sarebbe mirata e molto più efficace. L’alleanza tra il blu e il verde è una delle strategie vincenti che dobbiamo usare, perché non c’è  tempo da perdere.

Luciano Floridi

Luciano Floridi dell'Oxford Internet Institute

© Riproduzione Riservata

Commenti