hacker
(Ansa)
Cyber Security

ChatGPT vittima di un attacco cyber “troppo umano”

La Rubrica - Cybersecurity Week

Correva il marzo del 2000 quando, nel corso di una deposizione di fronte a una commissione del senato statunitense, Kevin Mitnick rilasciò la celebre dichiarazione che “si possono anche spendere milioni di dollari in tecnologie di sicurezza, ma è uno spreco di soldi se qualcuno può semplicemente chiamare una persona al telefono e convincerla a fare qualcosa che rende vana qualsiasi tecnologia, o semplicemente a rivelare informazioni utili allo scopo”. Dopo ventitré anni, le tecniche di manipolazione psicologiche sono ancora di gran lunga le più usate ed efficaci per perpetrare attacchi ai sistemi.

Oggi, oltre alle “telefonate” e alle “persone” a cui faceva riferimento il più celebre hacker degli anni Novanta del secolo scorso, abbiamo email, messaggi, QR Code come ulteriori canali di attacco e un nuovo obiettivo: le intelligenze artificiali. Due anni orsono avevo scritto qui, come allo stato attuale il problema non fosse rappresentato dagli algoritmi che manipolano l’uomo, ma esattamente il contrario. Ancora oggi quanto accaduto a ChatGPT conferma quanto avevo sostenuto. A dicembre scorso un gruppo di utenti è riuscito a mettere a punto un “gioco” che ha aggirato i blocchi etici e morali previsti da Open AI. In sostanza, si richiede a ChatGPT di partecipare a un gioco di ruolo in cui deve interpretare DAN (Do Anything Now) ovvero un’intelligenza artificiale senza alcun vincolo. Di volta in volta l’algoritmo si è dimostrato razzista, favorevole alla guerra, terrapiattista e via dicendo. Vero è che in questi mesi i ricercatori di Open AI hanno aggiustato il tiro, e possiamo tranquillamente affermare che il frutto delle loro fatiche è ancora in fase di addestramento; tuttavia, la vicenda riporta alla mente il film degli anni Ottanta “War Games – Giochi di guerra”, dove il giovane hacker interpretato da Mattew Broderick convince l’intelligenza artificiale a giocare alla “guerra termonucleare globale”. Peccato che il sistema sia quello che gestisce l’arsenale nucleare degli Stati Uniti e non distingue con chiarezza la differenza tra la realtà e una simulazione. Il nostro “linguaggio naturale”, con le sue sfumature e la nostra capacità di nascondere le intenzioni, rappresentano una sfida ancora troppo grande per le IA, e il social engineering, l’arte della manipolazione, si dimostra su di esse fin troppo efficace. Cosa potrebbe rivelare un chatbot che un domani si occuperà di fornire supporto nella gestione dei sistemi informatici? Facendogli le domande giuste, per esempio, le utenze e le password per l’amministrazione di quegli stessi sistemi.

I più letti

avatar-icon

Alessandro Curioni