​intelligenza artificiale, robot
iStock
Tecnologia

Il futuro dell'intelligenza artificiale è già qui

Continuano a evolvere gli strumenti in grado di affiancare l’uomo, oppure di sostituirlo, in un numero sempre più alto di mansioni. Ma il processo non è fuori controllo, secondo Silvio Savarese, l’italiano già direttore del centro di ricerca sull’Ai dell’università americana di Stanford.

Scrive le mail al posto di un impiegato, replicandone in modo credibile lo stile. Permette di usare programmi molto complessi senza toccare il mouse, semplicemente dialogando con il computer. Sa conversare in chat con i clienti, proporre loro offerte commerciali personalizzate, pensate su misura in base ai gusti di ognuno di loro. Si chiama Einstein Gpt e vuole essere geniale come il personaggio che omaggia: è una delle intelligenze artificiali più evolute tra quelle dedicate alle imprese. Non fa i compiti di scuola né inventa lettere d’amore, ma affianca le aziende negli affari.

A crearla è stata Salesforce, colosso californiano del software con quasi 200 miliardi di dollari di capitalizzazione in borsa. Il suo Chief scientist, una figura chiave dello sviluppo scientifico, è un italiano: Silvio Savarese, napoletano, da 23 anni negli Stati Uniti con all’attivo docenze in vari prestigiosi atenei, fino ad arrivare a dirigere, dal 2016 al 2018, il centro di ricerca sull’intelligenza artificiale dell’università di Stanford, nella Silicon Valley. Il riferimento globale del sapere collegato all’innovazione.

Panorama incontra Savarese a San Francisco durante «TrailblazerDx», l’evento annuale di Salesforce dedicato a sviluppatori, programmatori, chiunque si muova dentro e dietro il laborioso processo di svecchiamento delle imprese. L’Ai, da questo come dall’altro lato dell’oceano, è il tema del momento: il Garante per la protezione dei dati personali ha bloccato nel nostro Paese ChatGpt, lo strumento più diffuso tra quelli basati su questa tecnologia, a causa del mancato rispetto della disciplina tricolore della privacy; un recentissimo rapporto della banca Goldman Sachs parla di un impatto su 300 milioni di posti di lavoro legati al dilagare di tali software: solo in Europa, quasi uno su quattro degli impieghi attuali potrebbe essere automatizzato. E poi ci sono le finte immagini del Papa, di Donald Trump, di Vladimir Putin in situazioni imbarazzanti: sono state generate dall’intelligenza artificiale, sembrano vere, portano su un livello più raffinato, e complicato, il concetto di fake news. Mai come adesso è opportuno capire il futuro che ci aspetta, cominciando dal tempo presente.

Savarese, perché l’Ai è diventata ubiqua nel dibattito quotidiano?

Perché siamo a un punto di svolta, che non è iniziato adesso, da un giorno all’altro: le radici risalgono a qualche anno fa.

Cosa sta succedendo?

Si è capito che la combinazione di grosse quantità di dati con prestazioni computazionali elevate e algoritmi di «deep learning» (la capacità delle macchine di imparare, ndr) è in grado di creare opportunità nuove, non pronosticabili.

Sta dicendo che voi, gli artefici stessi di questa rivoluzione, ne siete rimasti spiazzati?

Esatto. Non ci aspettavamo simili talenti, per esempio quello di generare flussi di chat, di conversazioni complesse.

È preoccupato?

Sono ottimista. Parliamo di strumenti che stiamo forgiando, di cui abbiamo il controllo. Occorre tracciare delle linee guida, plasmare la tecnologia affinché i suoi frutti siano affidabili per chi li coglie.

Come costruire attorno a questi strumenti una cornice che non sia una gabbia?

Per cominciare, con il controllo delle fonti con cui l’Ai viene istruita. In Salesforce, per esempio, ci rivolgiamo al segmento business e possiamo avvalerci dei dati interni alle singole organizzazioni. Abbiamo ampio spazio di manovra circa la loro qualità, correttezza, rispetto della privacy.

Cosa accade invece in un sistema dal target universale come ChatGpt?

Per definizione, è nutrito con dati generali perché deve rispondere su ogni cosa, dalle ricette gastronomiche ai modi per cambiare la ruota di un’auto. Quindi è possibile che inciampi su informazioni non genuine, da cui discende un «output» erroneo. È tutto collegato: se l’«input» è veritiero lo sarà, tendenzialmente, anche il risultato.

È troppo tardi? Dovremo accontentarci di strumenti «bacati»?

Niente affatto. Esiste il cosiddetto «fine tuning», ovvero addestrare l’Ai con dati specifici e vagliati, magari su argomenti sensibili. O il prompt editing: se una domanda specifica ha un’elevata probabilità di generare risultati tossici, allora la richiesta non va in porto. L’Ai si autolimita, mette un blocco. È quello che avviene con i filtri che impediscono ai bambini di effettuare un certo tipo di ricerche. È un guardrail.

Avremo dunque Ai di serie A, a pagamento, recintate, più attendibili, e altre di Serie B, gratuite e spregiudicate?

Non dividerei il target tra poveri e ricchi, ma in base ai casi d’uso. Penso che nessuno voglia mettere in circolazione prodotti che siano dannosi. Il traguardo è che siano validi in ogni contesto.

La domanda è la solita, banale quanto attuale. Le macchine finiranno per sostituirci?

L’intelligenza artificiale non rimpiazza il lavoro umano, lo potenzia. È un assistente che ci rende più accurati, ci consente di fare cose che non sapevamo fare. È come avere una penna che prima scriveva, adesso aiuta in cosa scrivere, ma non annulla lo scrittore.

Però, durante la presentazione di Einstein Gpt, la vostra Ai che sa pure completare codici informatici al posto dei programmatori, in sala è sceso un silenzio irreale, di spavento.

Il software si occupa di certe operazioni ripetitive, noiose, pesanti dal punto di vista dell’esecuzione, consentendo all’uomo di concentrarsi sull’aspetto creativo. Io la trovo un’evoluzione positiva. E poi, abbassando la barriera dell’utilizzo, si generano nuove opportunità per persone che non avevano competenze specifiche. Si democratizza l’uso di certi strumenti.

Per esempio?

Dialogheremo con i software di fotoritocco oppure con quelli per costruire un sito web, senza dover imparare tutti i dettagli complicati che li fanno funzionare. L’Ai fa delle proposte, l’utente le accetta oppure no. È lui a decidere se vuole, per dire, un logo a destra oppure a sinistra. Per me è un processo che migliora l’efficienza in maniera non invasiva, né aggressiva o eccessiva. L’Ai non è un oracolo, è un interlocutore.

Avrà però visto il prosperare di fake news legato a un uso poco lecito di tali soluzioni. È sufficiente digitare un comando per ottenere una foto che raffigura un contenuto. Così la realtà diventa deformabile.

Il tema mi provoca inquietudine: è vero, questi software generano elementi che, distribuiti su larga scala, alimentano un’informazione fittizia. Però, dietro hanno cattive intenzioni. È il solito discorso degli strumenti della tecnologia: l’atomica può essere usata per produrre energia o per costruire delle bombe. L’Ai non c’entra, non ha una coscienza malevola, fa quello che l’utente le chiede di fare.

Come si può sfruttarne al meglio le potenzialità senza essere travolti?

Rendendo i giovani più consapevoli da subito, a ogni livello dell’educazione, dalla scuola all’università. Noi stessi dobbiamo evolvere. Capire, non mettere la testa nella sabbia.

Lei ha lasciato il mondo accademico.

Sono fiero del mio passato, ma i tempi della ricerca sono dilatati. Tutto accade più velocemente nell’industria, si ha il modo di avere un impatto notevole.

Cosa sta per succedere?

Oggi l’Ai non ha alcunché di consapevole. Quando la si interroga, va a pescare in una quantità di dati giganteschi. Perciò, a volte, finisce per dare delle risposte inaspettate. È accurata dal punto di vista linguistico, comunque opera un collage di testi precedenti.

E in futuro?

Capirà quello che le chiediamo. Non si limiterà a ripetere a pappagallo delle cose che ha preso da un’altra parte.

Con quali effetti?

Potrà non essere più astratta, andrà a manifestarsi nelle interazioni con il mondo fisico. Saprà, se glielo domandiamo, come afferrare un oggetto e portarcelo. Sarà il cervello dei robot. La ricerca ci sta lavorando: ci vorranno almeno 10 anni, si spalancherà una grande frontiera di applicazioni che ancora non immaginiamo.

Nonostante le sue rassicurazioni, l’ansia è inevitabile. Cosa devono studiare i nostri figli per prepararsi a un lavoro che domani esista ancora?

È opportuno privilegiare un ibrido tra la tecnologia e l’etica, la politica e, soprattutto, la legge. Serviranno norme adeguate in grado di regolare con scrupolo l’intelligenza artificiale. Dovremo indagare questi nuovi mondi mettendo in correlazione aspetti tecnici e umanistici. Avremo sempre più bisogno di competenze miste.

I più letti

avatar-icon

Marco Morello

Mi occupo di tecnologia, nuovi media, viaggi, società e tendenze con qualche incursione negli spettacoli, nello sport e nell'attualità per Panorama e Panorama.it. In passato ho collaborato con il Corriere della Sera, il Giornale, Affari&Finanza di Repubblica, Il Sole 24 Ore, Corriere dello Sport, Economy, Icon, Flair, First e Lettera43. Ho pubblicato due libri: Io ti fotto e Contro i notai.

Read More