Franco, un ex professore in pensione, vede online un finto video “governativo” con politici e imprenditori generati con Intelligenza artificiale che invitano a investire in criptovalute. Versa 250 euro e viene seguito da un “consulente” su una piattaforma che mostra in pochi giorni un aumento del 40 per cento di profitto. Convinto, aumenta fino a investire 12 mila euro; a schermo compaiono 120 mila euro virtuali in bitcoin. Quando chiede di ritirare, il conto viene dichiarato “bloccato” e gli mostrano persino una falsa lettera della Bce che chiede altri soldi per liberarlo. Poi i truffatori cambiano più volte versione pur di continuare a estorcergli denaro.
Le truffe da investimento che colpiscono cittadini europei e nord-americani non si presentano più come operazioni improvvisate né come spam di bassa lega: ciò che emerge con coerenza da centinaia di testimonianze pubbliche – raccolte su forum finanziari, bacheche Reddit, gruppi social e piattaforme video – è un modello industriale, ripetitivo e scalabile, progettato per monetizzare la fiducia altrui all’interno di un sistema che consente alle frodi di agire prima che le regole possano intervenire.
Le storie individuali cambiano nei nomi e nelle cifre, ma la struttura è sempre la stessa. Le narrazioni mutano nei dettagli, ma seguono il medesimo copione. C’è chi inizia con 100 euro dopo aver visto un video patinato con un volto noto falsificato dall’Intelligenza artificiale, chi si lascia guidare per settimane da un finto “mentore” che mostra grafici e promette rendimenti “garantiti”, e chi ammette di aver perso a sei cifre perché ogni passaggio – deposito, piattaforma, profitti simulati – sembrava tecnicamente credibile.
In tutti i racconti ritorna lo stesso dato: la truffa non avviene con un colpo secco finale, ma convincendo la vittima ad alimentarla passo dopo passo. Una stangata ben riuscita non sta nel rubare il primo bonifico, ma nel convincere la vittima che il guadagno fittizio sia reale, affinché continui a versare. In molte testimonianze, il «profitto visibile a schermo» viene definito come la parte più convincente dell’intera operazione: l’illusione del successo immediato diventa il miglior alleato dei criminali. Quando poi arriva il momento del ritiro, il tono cambia: emergono improvvisamente «commissioni di sblocco», «tasse amministrative», «verifiche antifrode» – tutti pretesti per spingere un ultimo versamento.
Un uomo che ha perso la liquidazione racconta che il vero trauma non è il denaro ma la vergogna di essersi lasciato coinvolgere da conversazioni che, a posteriori, appaiono calibrate su di lui. Non era un raggiro improvvisato, ma uno copione pensato per agganciare le sue vulnerabilità e spingerlo alla fiducia. Ex operatori di call-center criminali hanno raccontato alle forze dell’ordine che si tratta di una struttura organizzata: obiettivi, scrittura, tabelle di crescita, penali sull’importo prelevato e piattaforme di trading fasulle. Il linguaggio è aziendale: vendite, mantenimento del cliente, conversione del contatto in utente pagante, indicatori di risultato.
Le truffe di falso trading online rappresentano oggi una delle principali minacce economiche al risparmio in Italia. La Polizia postale ha registrato oltre 3.400 denunce solo nel 2023, mentre la Guardia di finanza ha condotto decine di indagini nell’ultimo biennio con sequestri di beni per circa 70 milioni di euro e centinaia di soggetti denunciati. Consob continua a bloccare siti e a emettere avvisi su operatori non autorizzati, mentre la Uif della Banca d’Italia segnala un flusso crescente di operazioni sospette legate a investimenti falsi.
Non esiste però un dato nazionale sulle perdite complessive, segno di un fenomeno ampio ma ancora parzialmente misurato. La crescita delle denunce e dei sequestri indica che le frodi non sono episodi isolati, ma una tendenza strutturale in espansione. Del resto, Meta, con oltre 250 milioni di utenti nell’Unione, è oggi uno dei principali vettori di inserzioni di falso trading online. Il suo modello di business è quasi interamente pubblicitario (98 per cento dei ricavi globali), con 160 miliardi di dollari generati l’anno scorso e un impatto economico europeo rivendicato pari a 213 miliardi di euro. Dal punto di vista degli incentivi economici, le piattaforme non hanno motivo di prevenire in modo efficace questi annunci: il modello pubblicitario monetizza il volume e la profilazione, senza distinguere tra contenuti leciti e illeciti finché non esiste rischio legale concreto.
La responsabilità, nel quadro attuale, scatta – se scatta – solo ex post e solo su singoli casi dimostrati. Per questo le segnalazioni vengono trattate lentamente e in modo irregolare, mentre le inserzioni fraudolente ottengono milioni di visualizzazioni nella finestra utile. Poiché il contatto con la vittima avviene nelle prime ore, la rimozione tardiva non ha effetto deterrente. In questo assetto la frode non è un incidente: è un prodotto compatibile con l’economia dei social. Negli ultimi tre anni le truffe di investimento veicolate via piattaforme digitali sono diventate, in Europa, la forma economicamente più rilevante di frode al consumatore.
La Commissione europea ha stimato pubblicamente – attraverso la sua commissaria al Digitale – perdite superiori ai 4 miliardi di euro l’anno generate da annunci ingannevoli di servizi finanziari. Per capire la portata, questa cifra supera l’intero ammontare registrato da molte categorie di criminalità tradizionale in più Stati membri messi insieme. Il fenomeno è stato qualificato dall’Europol come «senza precedenti» sia in scala sia in velocità di crescita, a causa di tre fattori concatenati: automazione della produzione di contenuti persuasivi, capacità di profilazione fine-grained (leggera) delle piattaforme, assenza di obblighi di verifica ex-ante degli inserzionisti di prodotti finanziari nella maggior parte del mercato europeo.
Pierguido Iezzi, cybersecurity director di Maticmind, spiega che «l’osservatorio del Cyber defence center di Maticmind ha rilevato che il 2025 segna il passaggio dai semplici chatbot ad “assistenti automatici” che usano strumenti (email, pagamenti, social), ricordano nel tempo e perseguono obiettivi. Non operano più per comandi ma per obiettivi. Qui nasce il nuovo rischio. La truffa è ormai una filiera industriale: modelli di Ia venduti per scopi illeciti (WormGPT/FraudGPT), “kit” di identità sintetiche da 500-10 mila dollari e servizi di deepfake in abbonamento, con listini per video statici, interattivi e persino in tempo reale per le videocall».
Il risultato sono raggiri che parlano, negoziano e insistono costantemente: solo nel 1° quadrimestre 2025, i deepfake hanno causato 900 milioni di dollari perdite: si va dai dai 499 mila dollari sottratti con una finta riunione di un cda a Singapore alle piattaforme di trading fasulle smascherate da Interpol (65 mila vittime per 300 milioni di dollari), fino al caso Microsoft dello scorso settembre, una truffa via email nascosta con l’Ia». Aggiunge Iezzi: «Entro fine anno le identità non-umane supereranno i 45 miliardi, cioè circa 12 volte la forza lavoro globale, ma solo il 10 per cento delle organizzazioni ha una strategia, mentre l’80 per cento delle violazioni coinvolge identità compromesse: il bersaglio non è più il computer, è l’identità. Sul fronte pubblico abbiamo una criticità: un sistema di segnalazione che consente ai team accreditati di inviare solo 20 link per volta: si rincorre l’ultimo annuncio mentre la controparte criminale ha automatizzato produzione e distribuzione su scala algoritmica».
Google in Irlanda e Meta nel Regno Unito hanno già introdotto verifiche preventive per gli inserzionisti di servizi finanziari: dove il controllo ex-ante è obbligatorio, le truffe diminuiscono o migrano altrove. Nella Ue questa misura non è stata adottata per motivi politici ed economici: imporla significherebbe spostare costi e responsabilità dalle piattaforme agli operatori. Il Digital services Act evita il controllo preventivo e rende la responsabilità solo ex-post. In questo assetto, la persistenza delle frodi non è un’anomalia: è la conseguenza prevista dal sistema. «Il sistema di difesa attuale non è progettato per ciò che abbiamo già davanti» avverte Iezzi. «Sono già in circolazione agenti autonomi di attacco che usano tool, conservano memoria, perseguono obiettivi operativi da soli. Da lì nascono minacce realmente nuove: avvelenamento delle memorie, abuso degli strumenti, attacchi a sciame. Non ha più senso limitarsi a rimuovere il singolo post: bisogna colpire la filiera completa, verificare chi compra pubblicità finanziaria, tracciare e rimuovere le varianti delle campagne, bloccare a monte wallet e Iban ricorrenti».
Con il Cyber Team di Maticmind, Iezzi ha sviluppato un sistema avanzato di cyber threat intelligence integrato con la piattaforma AI Fraud App Detector, che impiega assistenti automatici e tecnologie proprietarie per monitorare costantemente gli App store e segnalare in autonomia potenziali trojan bancari, riducendo così i tempi di analisi e anticipando i rischi legati alle frodi finanziarie.
