Intelligenza artificiale
(Ansa)
Tecnologia

Intelligenza artificiale: rischio o opportunità?

Chiarimenti sull'argomento con Vincenzo Cosenza, un economista lucano che dopo un master al Sant’Anna di Pisa ha capito che il futuro dell’informazione è già tra noi…

E’ l’argomento del momento, che sta interessando gli scienziati dell’informazione come i consulenti governativi, gli studiosi come i governi i governi più emancipati in fatto di sfide per il futuro. E forse anche qualche potenza occulta pronta a buttarsi sulla disciplina: sinceramente c’è da nutrire un pò di preoccupazione. La materia non è certo roba di cui discutere durante la pausa pranzo, e più che ad una definizione tecnica, occorre pensare all’intelligenza artificiale come ad un modo di sviluppare software che si rende necessario quando il programmatore non riesce a prevedere le istruzioni/condizioni necessarie per risolvere un certo problema. Quindi sviluppa una serie di algoritmi che permettono alla “macchina” di apprendere gradualmente come risolvere il problema.

Panorama.it si è lasciata incuriosire dall’argomento e ha chiesto chiarimenti a Vincenzo Cosenza, un economista lucano che dopo un master al Sant’Anna di Pisa ha capito che il futuro dell’informazione è già tra noi…

Dottor Cosenza, il termine Intelligenza artificiale sta diventando un tormentone…

«La buzzword, ovvero la parola d’ordine che sta galvanizzando i media e l’opinione pubblica, è “Generative AI”. Col termine Intelligenza Artificiale generativa ci si riferisce all’utilizzo di tecniche di machine learning e deep learning per generare contenuti nuovi sulla base di dati pregressi. In particolare, parliamo dell’utilizzo di modelli linguistici di grandi dimensioni (Large Language Models) che permettono di ottenere testi, immagini, video, codice inedito a partire da un input testuale».

Un attimo, per carità! Cosa significano machine learning e deep learning?

«Si tratta di tecniche di intelligenza artificiale basate su modelli matematici che permettono alla macchina di trovare correlazioni tra dati che noi umani non riusciamo a vedere e di imparare autonomamente a risolvere un problema complesso. Per esempio le auto a guida autonoma usano queste tecniche per “dare gli occhi” all’automobile e farle evitare gli ostacoli sulla strada».

Ci sta guidando nella fantascienza…

«Si, stiamo entrando rapidamente in territori che fino a poco tempo fa sembravano proprio fantascienza. In particolare, l’intelligenza artificiale generativa ha subìto un’accelerazione rapida in quest’ultimo anno. Il perché è presto detto: oggi abbiamo più dati che in passato, più potenza computazionale e dei migliori algoritmi generativi».

E siamo solo all’inizio, pere come ci ha confidato…

«Sequoia Capital prevede un impatto economico di trilioni di dollari nei prossimi anni. Quest’ultima è una società di venture capital con sede a Menlo Park in California che si focalizza principalmente sul settore industriale tecnologico: venne lanciata nel 1972, e da allora ha finanziato società diventate icone dell’high-tech statunitense come Apple, Google, Cisco, PayPal e YouTube».

Ci racconti qualcosa di più!

«Fino al 2015 per permettere ad una macchina di comprendere il linguaggio si usavano modelli linguistici non molto ampi, in quanto erano efficaci per compiti molto specifici come previsioni di eventi, individuazione di spam, traduzioni basilari. Ma nel 2017 arriva la svolta: un paper di Google Research introduce una nuova architettura di rete neurale chiamata “transformer”, in grado di generare modelli linguistici di qualità più elevata, impiegando meno tempo di addestramento».

Siamo alla sovrapposizione uomo-macchina?

«Direi che questi transformer possono essere personalizzati facilmente per operare in domini specifici. Iniziano ad essere messi alla prova da aziende come Microsoft, Google, OpenAI e, così, nel 2020 si assiste al primo salto di specie: GPT-3 è il modello che funziona meglio per la creazione di testi».

Si è trattato di un cambio epocale, pare di capire.

«Perché questi modelli sono difficili da far funzionare, richiedono architetture hardware complesse, GPU potenti per cui sono disponibili a poche aziende. Piano piano i costi iniziano a calare e, oggi, sono spuntati i primi software stand alone e web based che stanno aprendo le porte ai test di massa. DALL-E 2, rilasciato in beta a luglio, è usato da oltre 1,5 milioni di persone che producono più di 2 milioni di immagini al giorno. Midjourney, aperto prima al pubblico, ha più di 3 milioni di utenti».

Il futuro è adesso?

«La prossima fase sarà quella dell’integrazione di questi metodi di generazione all’interno di prodotti già ampiamente utilizzati dalle persone. Microsoft ha già annunciato l’integrazione di GPT nel suo motore di ricerca Bing e in Office 365, così come Google li sta testando nella suite Google Workspace. Insomma l’intelligenza artificiale generativa entrerà rapidamente nelle nostre vite e noi dovremmo essere in grado di sfruttarne le potenzialità».

Crediamo che i rischi siano dietro l’angolo…

«Direi che ci sono quelli immediati certi e quelli futuribili. I primi sono legati alla disinformazione perché la produzione rapida e facilitata di testi ed immagini verosimili (a volte indistinguibili dalla realtà) può fare il gioco di chi vuole inquinare l’ecosistema informativo».

Anche per i secondi le chiediamo cosa ci attenderà!

«Quelli futuribili sono paventati da una frangia degli studiosi che pensano che perderemo il controllo di sistemi sempre in grado di apprendere da soli. Queste paure sono recenti perché legate all’osservazione delle cosiddette “proprietà emergenti” dei modelli linguistici di grandi dimensioni ossia la capacità dei nuovi sistemi di intelligenza artificiale generativa di riuscire a svolgere attività che nessuno gli ha insegnato».

Un esempio…

«In un recente speciale di CBS News si racconta di come un sistema di Google dopo un prompt in bengali sia stato in grado di rispondere in quella stessa lingua, anche senza un addestramento specifico».

Sia sincero: l’Intelligenza artificiale distruggerà l’umanità?

«Io sono più ottimista, ma ha destato scalpore la notizia che Geoffrey Hinton, ovvero il padrino dell’intelligenza artificiale, già premio Turing, abbia lasciato Google per poter parlare dei pericoli dell’IA. Non che gli fosse stato impedito di parlarne prima, ha precisato, ma ora sente la necessità di poterne parlare “senza dovermi preoccupare dell’impatto che le mie parole avranno su Google”».

Siamo all’autocensura?

«Il suo timore è di essere stato un po’ come Oppenheimer. Il rischio che paventa è che stiamo costruendo un’arma che potrebbe spazzare via l’umanità, proprio come la bomba atomica. C’è da dire che non è il solo a sentire l’urgenza di sensibilizzare l’opinione pubblica sul tema. Già qualche settimana fa, un gruppo di scienziati e pensatori aveva proposto una moratoria di sei mesi allo sviluppo di intelligenze artificiali generative».

Vincenzo Cosenza, lucano di Lauria (Pz), classe 1973, si è laureato in Economia all’Università di Salerno e ha poi conseguito un Master in Management dell’informazione presso la Scuola Superiore S. Anna di Pisa. Oggi è consulente di marketing e innovazione e ha recentemente fondato il primo Osservatorio Metaverso italiano. In precedenza ha lavorato come PR manager e CMO per Microsoft, Digital PR, Blogmeter, Buzzoole. Ha scritto “Marketing Aumentato”, "Social Media ROI", “La società dei dati”. Il suo blog https://Vincos.it è un punto di riferimento per i professionisti del marketing e della comunicazione.

I più letti

avatar-icon

Egidio Lorito