Non possiamo più sottovalutare i rischi dell'Intelligenza Artificiale
Tecnologia

Non possiamo più sottovalutare i rischi dell'Intelligenza Artificiale

Dall'invasione di fake news alla propaganda, Chat-GPT4 e Midjourney sono solo i primi software dell'AI generativa che consentono di creare testi e immagini a proprio piacimento. Così il verosimile diventa reale.

Dall'entusiasmo alla paura in poco più di trenta giorni. È lo strano effetto che fa l'intelligenza artificiale generativa, quella alla portata di (quasi) tutti, che consente di ottenere testi e immagini in pochi attimi a fronte di specifiche richieste testuali. L'enorme mole di dati su cui si basano i Large Language Model - i grandi modelli linguistici addestrati per rispondere a qualsiasi domanda in maniera dettagliata, sia testualmente, sia visivamente, in relazione alla precisione del prompt originario (la domanda iniziale) - hanno limiti evidenti e ben delineati, poiché possono replicare su fatti accaduti in passato ma non quelli futuri. Non hanno capacità di analisi e anche per questo Chat-GPT e soci talvolta inventano laddove non arrivano con la conoscenza.

Il discorso cambia con il tempo, che permette ai ricercatori di ampliare le informazioni date in pasto ai software, ma cambia sopratutto quando si parla di immagini, perché si entra in un campo dove è molto più facile creare qualcosa di verosimile, con prove ‘fotografiche’ che agli occhi di molte persone trasformano in automatico il verosimile in reale. Anche se falso. L'immagine di Papa Francesco che indossa un vistoso piumino bianco creata con Midjourney ha aperto gli occhi ai più scettici e ai meno avvezzi alla tecnologia. Perché immortalando una delle personalità più popolari del mondo, nonché simbolo di sobrietà, l'immagine ha fatto subito il giro del mondo diventando un cult sui social media e inaugurando l'inevitabile appendice di meme e foto emulative.

Molte testate hanno cavalcato l'immagine lasciando quasi sullo sfondo la falsità del contenuto per questione di click, sinonimo di pubblicità e quindi maggiori introiti. Scherzare con l'intelligenza artificiale potrebbe rivelarsi, però, un pericoloso boomerang. Sia perché da una parte c’è una maggioranza di persone lontane dal contesto IA e prive degli strumenti utili per questionare su un contenuto inverosimile come l'immagine di Bergoglio citata sopra, sia perché prendere sotto gamba le potenzialità dell'intelligenza artificiale generativa apre il fianco alla diffusione di fake news di facile produzione, che è una manna dal cielo per chi vive di propaganda nella società dell'effimero dove i social media sono per molti la fonte d'informazione primaria per sapere ciò che avviene ogni giorno nel mondo.

Per farsi un'idea di cosa potrebbe accadere con il costante sviluppo dei sistemi IA, è importante considerare che al momento ci troviamo di fronte soltanto a software che restituiscono testi e immagini, ma l'intelligenza artificiale è in grado di sfornare anche codice di programmazione, modelli 3D e soprattutto video. Ecco, provate a immaginare quando un qualsiasi sconosciuto, volontariamente o meno, confezionerà un video di una sparatoria, oppure simulerà un incontro compromettente tra due o più persone, o ancora inscenerà un incidente per far apparire colpevole una determinata persona, famosa o anonima che sia. Davanti alle immagini che testimonierebbero determinati fatti, appare difficile ragionare su vero/falso, nonostante dietro ci fosse il decisivo aiuto dell'intelligenza artificiale.

Per scongiurare queste derive un migliaio tra imprenditori e scienziati hanno scritto una lettera aperta invitando tutti i laboratori a fermare immediatamente l'addestramento di tutte le IA più potenti di Chat-GPT4 per almeno sei mesi, per evitare che sul lungo periodo "le macchine possano diventare più intelligenti dell'essere umano". “Dobbiamo rischiare di perdere il controllo della nostra civiltà?”, si chiedono i 1784 firmatari della petizione, aggiungendo che “se tale pausa non verrà attuata, toccherebbe ai governi intervenire per imporla”.

Detto che dietro all'appello firmato da un eterogeneo gruppo che include scienziati e informatici come Yoshua Bengio e Stuart Russell, ma anche imprenditori che di etico hanno dimostrato di avere poco o nulla come Elon Musk, ma anche che il rischio di menti non umane capaci di rimpiazzarci è al momento totalmente insensato, poiché non sappiamo neppure se sarà mai possibile avvicinarci a un simile traguardo, resta la necessità di trovare regole di ingaggio condivise per stabilire le norme d'utilizzo di ogni tipo di intelligenza artificiale. È doveroso trovare rimedi alle discriminazioni intrinseche di strumenti realizzati dagli umani che presentano di solito pregiudizi in linea con i suoi creatori, come pure gli errori e le allucinazioni (come sono chiamate le invenzioni di fatti) che restituiscono i software. Come sempre il buonsenso sarebbe la base da cui partire per individuare regole per salvaguardare usi e sicurezza, ma laddove le priorità sono i ricavi e il potere garantito da uno strumento in grado di condizionare gli altri, per il buonsenso di spazio ce n'è poco o nulla.

I più letti

avatar-icon

Alessio Caprodossi