Ci sono notizie che scuotono i mercati, e notizie che scuotono qualcosa di più profondo: la nostra idea di dove siamo diretti. In quello che appare come un significativo incidente di sicurezza, Anthropic ha involontariamente rivelato dettagli su un modello di intelligenza artificiale in sviluppo, denominato “Claude Mythos”, attraverso il proprio sito web aziendale. Non si trattava di un attacco hacker pianificato da uno stato ostile. Era qualcosa di molto più banale, e in un certo senso molto più inquietante: un errore umano.
Un errore di configurazione nel sistema di gestione dei contenuti di Anthropic ha esposto per sbaglio una bozza di blog che descriveva il modello, disponibile in un archivio di dati non protetto e consultabile pubblicamente, affermando che il nuovo modello «comporta rischi per la sicurezza informatica senza precedenti».
Anthropic non ha confermato ufficialmente tutti i dettagli, ma ha riconosciuto l’esistenza di una fuga di informazioni, avviando un’indagine interna. Il danno, però, era già fatto.
Cos’è Claude Mythos
Il documento trapelato descrive Claude Mythos sotto il nome di prodotto “Capybara”: un nuovo livello di modello che si collocherebbe: più grande e più intelligente degli attuali modelli Opus, che fino ad ora erano i più potenti. Rispetto al precedente miglior modello, Claude Opus 4.6, il nuovo sistema otterrebbe punteggi notevolmente più alti nei test di codifica software, ragionamento accademico e cybersicurezza.
Secondo Techzine che ha avuto accesso alla bozza del documento di Antrhopic, il modello è descritto come «attualmente molto più avanti di qualsiasi altro modello AI nelle capacità cyber» e avverte che «preannuncia un’ì’imminente ondata di modelli in grado di sfruttare le vulnerabilità in modi che superano di gran lunga gli sforzi dei difensori». Nei giorni successivi, il disastro si è aggravato: Anthropic ha accidentalmente fatto trapelare anche il codice sorgente di Claude Code, esponendo circa 500.000 righe di codice in circa 1.900 file.
Il panico in borsa
I mercati non aspettano le certezze. Reagiscono alle percezioni, alle paure. I titoli del settore cybersecurity sono scesi bruscamente in seguito alla diffusione della bozza trapelata. Aziende come CrowdStrike, Palo Alto Networks e Okta hanno registrato cali significativi. La logica degli investitori anticipa un sentimento brutale e drammatico: se un modello AI può identificare e sfruttare vulnerabilità meglio di qualsiasi team umano, le aziende di sicurezza tradizionali rischiano di fallire clamorosamente?
Gli analisti di DA Davidson hanno dichiarato di ritenere altamente improbabile che i laboratori di AI possano sostituire i fornitori di cybersecurity, osservando che la maggior parte dei Chief Information Security Officer rimane altamente scettica. Eppure nessun analista può ignorare la traiettoria: la velocità con cui i modelli aumentano in potenza, e la loro accessibilità crescente a chiunque — inclusi attori malintenzionati, sono una minaccia concreta e tutt’altro che banale.
Davide contro Golia?
Il punto non è solo cosa può fare Mythos, ma chi potrebbe usarlo e con quali intenzioni. D’altra parte risulta chiaro che strumenti sofisticati di intelligenza artificiali possono ridurre sensibilmente i tempi per sviluppare attacchi informatici sofisticati e analogamente arginare i rischi con tool altrettanto efficaci.
L’AI non livella il campo di gioco, lo inclina. I difensori devono proteggere ogni singolo punto vulnerabile. Gli attaccanti devono trovarne soltanto uno. Man mano che le aziende lanciano modelli sempre più avanzati, gli agenti AI imparano ad agire e ragionare senza intervento umano, permettendo agli hacker di condurre più campagne di attacco contemporaneamente, contro cui è molto più difficile difendersi.
Viviamo in una civiltà radicalmente dipendente dall’infrastruttura digitale. Ospedali, reti elettriche, sistemi bancari, catene alimentari: tutto è connesso, tutto è vulnerabile. La vicenda Claude Mythos è una finestra sul precipizio. Non perché Anthropic sia irresponsabile, ma perché dimostra che stiamo andando correndo in fretta, troppo in fretta, e il rischio è quello di perdere il controllo del mezzo.
I sistemi di governance internazionale sull’AI sono in ritardo di anni. Le normative esistenti sono state pensate per un’AI molto meno capace. E la competizione geopolitica crea forti incentivi a accelerare ulteriormente piuttosto che a frenare. Lo scenario apocalittico non è fantascienza: è una possibilità concreta, che si avvicina a ogni nuovo modello rilasciato.
