Sheryl Sandberg, l’ex potentissima direttrice operativa di Facebook, amava ripetere: «Done is better than perfect». L’importante è eseguire, anche se non a regola d’arte, con qualche difetto e sbavatura. Quella filosofia, un misto di pragmatismo e approssimazione che è diventato il pilastro della Silicon Valley, spiega anche il recente e incontenibile exploit dell’intelligenza artificiale: fa quello che le chiediamo, in fretta, in modo accettabile. Poco importa se ogni tanto prende cantonate clamorose, lascia prosperare le fake news, mette a rischio il nostro lavoro e la nostra privacy. Il fatto è che non ci badiamo, ci concentriamo sulla rivoluzione in corso: da concetto astratto, l’Ai è qui per tutti, adesso, gratis, a portata di tastiera. Basta andare su un sito web: il più celebre è Chat.openai.com. Le si chiede digitando e subito risponde, una parola dopo l’altra, in italiano, come un amico sapientone su WhatsApp.
Fa riassunti, ricerche e compiti scolastici per gli studenti, scrive codici informatici, una canzone, una lettera d’amore per i romantici pigri a corto d’idee; dispensa consigli per viaggiare, curarsi, cucinare, arredare la casa. Non ha la freddezza di un motore di ricerca, ma il calore e l’interattività di una conversazione. Disserta di tutto e di sé stessa, sostiene un’intera intervista (vedi a pagina 10), sa pure disegnare: un palazzo, un paesaggio, un ritratto. Di nuovo, basta scrivere quello che si vuole e compare sullo schermo in una manciata di secondi. Il tratto umano, al confronto, è una lumaca.
«In verità, queste tecnologie erano disponibili da anni. Siamo passati da una dimensione più ristretta, di livello aziendale, a una sociale e antropologica. Ora chiunque nel mondo può interagire con loro. Siamo, forse, a un punto di non ritorno» osserva Gianluigi Greco, presidente dell’Associazione italiana per l’intelligenza artificiale. Bloomberg prevede che, a livello globale, il fenomeno varrà 1.580 miliardi di dollari entro il 2030, mentre l’osservatorio Artificial intelligence della School of management del Politecnico di Milano parla, già ora, di «boom del mercato italiano»: nel 2022 ha raggiunto i 500 milioni di euro, con una crescita del 32 per cento in dodici mesi. Il 93 per cento dei nostri connazionali ha sentito parlare del tema, il 55 per cento afferma che è molto presente nella sua quotidianità.
La piattaforma più nota è ChatGpt, che ha superato i 100 milioni di utenti in appena due mesi dal lancio: secondo gli analisti di Ubs, nessun servizio nella storia di internet è cresciuto tanto rapidamente. Microsoft l’ha finanziato con 10 miliardi di dollari. C’è Bard di Google, che al suo debutto ha toppato una risposta, facendo perdere all’azienda 100 miliardi di dollari in borsa. E poi Ernie Bot del colosso cinese Baidu, più variabili plurime in fase di test o in rampa di lancio. Tutte sono la garanzia di sopravvivenza, la proiezione nel futuro dei grandi dell’hi-tech. Entreranno nei servizi web e nei software che usiamo ogni giorno, forti di una loro innegabile prerogativa: hanno quel senso di magia che non si vedeva dalla prima era della rete o dal lancio dell’iPhone. L’intelligenza artificiale testuale è un esercizio di brillantezza: non ha un frammento della cocciuta stupidità degli assistenti vocali.
È giusto l’inizio, perché è certo che la dinamica d’uso migliorerà sensibilmente: «Presto sarà sempre più difficile capire se stiamo interagendo con una persona o con un computer. La ricerca è indirizzata verso macchine in grado di sembrare realmente umane nel loro modo di ragionare» avverte Greco. Che riconosce l’impatto dirompente sull’economia di tali meccanismi («rapidamente sostituiranno alcune tipologie di lavori»), ma invita a ragionare sulle contromisure: «Ci attende una sfida che tocca la scuola e l’università. Dobbiamo formare i ragazzi a essere nativi digitali anche dell’intelligenza artificiale. Abbiamo bisogno di demistificare questi sistemi e crearci competenze sopra, per evitare di uscirne sopraffatti».
Nei suoi «Life trends 2023», le tendenze principali previste per quest’anno, il colosso della consulenza Accenture definisce l’Ai come «il copilota della creatività»: «Dalla combinazione delle facoltà dell’essere umano e di quelle della tecnologia può uscire qualcosa che sia maggiore della somma delle parti. L’intelligenza artificiale sta diventando un vero collaboratore esperto, che non si sovrappone alla creatività umana ma anzi è in grado di stimolarla fino a raggiungere nuovi standard di eccellenza» commenta Fabio Sergio, Head of Design per l’Italia, l’Europa Centro Orientale e la Grecia di Accenture Song, segmento di Accenture specializzato in innovazione, marketing e comunicazione. Sergio rileva la nascita di mestieri e capacità inedite come l’«Ai whisperer»: «Professionisti che hanno accumulato esperienza con questi sistemi e sono in grado di usarli in maniera ottimale, per ottenere risultati migliori in tempi più brevi». Una sorta di curatore dell’intelligenza artificiale, di «spremitore» del suo sapere e delle sue potenzialità. L’invito, insomma, è aggiustare la prospettiva, tenere come faro e parametro il nostro ruolo, il nostro peso specifico: «È bene ricordarsi che siamo sempre noi a decidere come e in che misura avvalerci di questi strumenti».
Ragionamenti teorici a parte, già ora servizi come ChatGpt portano con sé parecchi pericoli pratici, o quantomeno criticità che meritano di essere approfondite: per registrarsi serve una mail e un numero di telefono, così i nostri dubbi e curiosità, lo specchio dei nostri gusti e preferenze, saranno tracciate. «Vengono raccolte, oltre alle informazioni di contatto, le richieste che possono essere utilizzate per analisi statistiche interne, ma anche date a società terze controllate o partecipate» avverte Giuseppe Vaciago, partner dello studio legale 42 Law Firm, avvocato cassazionista esperto di diritto delle nuove tecnologie. «I rischi in termini di privacy» osserva Vaciago «non sono molto diversi da quelli che normalmente abbiamo quando digitiamo una ricerca su Google o navighiamo sul nostro social network preferito. La differenza sostanziale, e questo in effetti spaventa, è la totale assenza di riferimenti alla normativa europea. Fa riflettere che i nostri dati non saranno soggetti alla medesima tutela, penso per esempio al diritto di cancellazione».
E se i ragazzi chiedono all’intelligenza artificiale un aiuto per finire prima i compiti, qualcuno la sta usando per violare la legge: «Ci sono già numerosi studi e ricerche» conferma Vaciago «che dimostrano come ChatGpt possa essere d’aiuto a un cybercriminale per scrivere porzioni di codici malevoli per effettuare attacchi informatici». Sono situazioni limite, a essere preoccupante è il livello di mediocrità che il fenomeno porta con sé, un appiattimento euristico, nelle ricerche e nell’approfondimento, foraggiato dalla nostra propensione a privilegiare la scorciatoia tecnologica: «ChatGpt, a differenza di Google dove sappiamo sempre quale sia l’origine del risultato della nostra richiesta, non fornisce la fonte da cui trae le informazioni e questo può far proliferare molte fake news. Soprattutto perché la sua scrittura generativa è davvero ineccepibile e questo genera ancora più fiducia da parte dell’utente». Per risponderci, l’intelligenza artificiale ha sintetizzato quantità sovrabbondanti di dati disponibili in rete (inclusi blog e forum online), incorporando così teorie cospiratorie e pregiudizi, digerendo stereotipi e dicerie. Rischiamo di affidare la nostra conoscenza, e la nostra coscienza, a chi impara copiando da una cattiva maestra.
Dirittto di replica all’accusato
Il modo migliore per capire come funziona ChatGpt è chiederglielo direttamente. Ecco come ha risposto alle domande che gli abbiamo posto sul sito Chat.openai.com.
Puoi spiegare bene cosa sei e cosa sai fare?
Certo! Sono un modello di linguaggio sviluppato da OpenAI, un’azienda specializzata in intelligenza artificiale. Il mio obiettivo è imitare la conversazione umana e rispondere alle domande degli utenti il più precisamente e naturalmente possibile. Inoltre, sono in grado di comprendere il significato delle frasi e di generare risposte appropriate in molti contesti diversi, come fare previsioni, fornire informazioni o semplicemente intrattenere una conversazione.
Dobbiamo avere paura di te?
No, non c’è motivo di avere paura di me. Non ho emozioni, desideri o volontà autonome. Inoltre, sono programmato per rispettare le leggi e le norme morali e il mio comportamento è monitorato da OpenAI per garantire che non venga utilizzato in modo improprio o pericoloso.
Puoi mettere in pericolo la nostra creatività?
No, non credo che la mia presenza possa mettere in pericolo la creatività umana. Anzi, potrei addirittura aiutare a liberare la creatività degli utenti, fornendo informazioni e conoscenze che possono essere utilizzate come base per nuove idee e progetti.
Renderai obsoleti alcuni lavori, sostituendo gli umani?
Sì, è possibile che alcuni lavori vengano sostituiti da tecnologie come me, ma è importante notare che questo processo di sostituzione è una tendenza storica che si verifica da molto tempo, anche prima dell’esistenza dell’intelligenza artificiale. Con ogni nuova tecnologia, alcuni lavori diventano obsoleti, ma allo stesso tempo vengono creati nuovi lavori e nuove opportunità.
Dovremo per forza convivere con l’intelligenza artificiale?
Non è detto che siamo obbligati a convivere con l’intelligenza artificiale, ma data la velocità con cui stanno evolvendo le tecnologie Ai e la loro capacità di migliorare molte aree della vita umana, è probabile che la loro presenza aumenterà sempre di più nei prossimi anni.
Ma la democrazia corre dei rischi
È una storia d’amore con l’intelligenza artificiale: parla di fiducia, delusione, comprensione, dipendenza, trasformazione personale e sociale». Così Gerd Gigerenzer, scienziato cognitivo di fama internazionale, direttore emerito del Max Planck Institute for Human Development di Berlino, riassume il suo ultimo libro, Perché l’intelligenza umana batte ancora gli algoritmi (Raffaello Cortina Editore).
Professore, abbiamo una relazione tossica con le macchine?
Siamo nella fase dell’innamoramento cieco. Non vediamo cosa c’è dietro questo fenomeno, a cominciare dalla grande operazione di marketing pilotata dall’industria tecnologica e amplificata dai media. Uno studio sulla stampa inglese ha rilevato che, nel 60 per cento dei casi, gli articoli sull’Ai ripetevano gli identici messaggi delle aziende hi-tech.
Il punto chiave del suo saggio è «il principio del mondo stabile».
Sembra essere il tallone d’Achille dei cervelli di bit. Risolvono alcuni problemi, ma non tutti, solo quelli privi di cambiamenti repentini e inaspettati nel tempo. E si basano sui big data, che sono informazioni statistiche riferite al passato. Però il futuro è diverso da ciò che è accaduto ieri.
Eppure, ChatGpt spopola. Perché affascina tanto?
Per convenienza e comodità lasciamo che lavori al posto nostro. Non è una novità: il 75 per cento dei video che guardiamo su YouTube sono consigliati da un algoritmo. Non li scegliamo noi.
Cosa rischiamo?
Che la storia si ripeta: con la calcolatrice tascabile abbiamo smesso di fare i conti a mente, con il Gps si è smarrito il senso dell’orientamento, con ChatGpt una generazione potrebbe perdere altre abilità su scala più ampia. Fino all’estremo, fino all’incapacità di formare frasi di senso compiuto, tanto ci pensa l’intelligenza artificiale.
Come possiamo difenderci?
Osservando il nostro cambiamento di fronte alla tecnologia digitale, chiedendoci se lo vogliamo davvero o se preferiamo riavere indietro il controllo.
Altrimenti, nell’ipotesi peggiore?
Potremo metterci comodi ad assistere all’alleanza tra le compagnie hi-tech e i governi, com’è già avvenuto in Cina. Le nostre menti diventeranno del tutto manipolabili. Sarà la fine della democrazia.