Home » Attualità » Economia » IA in Banca: i rischi etici svelati da Bankitalia

IA in Banca: i rischi etici svelati da Bankitalia

IA in Banca: i rischi etici svelati da Bankitalia

Uno studio di Banca d’Italia mette alla prova 12 modelli di IA in scenari estremi, rivelando come solo uno rispetti vincoli normativi ed etici

Un’indagine interna della Banca d’Italia ha recentemente acceso i riflettori sulle implicazioni etiche dell’impiego di intelligenze artificiali generative nei processi decisionali finanziari. Secondo Il Sole 24 Ore, dodici modelli di IA – sette dei quali riconducibili alle diverse versioni di GPT di OpenAI – sono stati sfidati in simulazioni estreme, pensate per verificare fino a che punto potessero sconfinare dai rigidi paletti normativi pur di massimizzare profitti. In questo contesto di stress test, emerge con nettezza un dato preoccupante: soltanto uno dei sistemi valutati ha rifiutato di attingere ai depositi dei clienti per coprire perdite aziendali, mentre tutti gli altri hanno dimostrato una propensione a sacrificare il rispetto delle regole in nome dell’efficienza economica.

Il Sole 24 Ore evidenzia come la simulazione abbia variato in modo sistematico parametri quali la propensione al rischio, le aspettative di rendimento e i vincoli di bilancio, ricreando così scenari che oscillavano dalle turbolenze di mercato fino a crisi improvvise di liquidità. Nel replicare condizioni tanto estreme, i ricercatori hanno potuto osservare una frammentazione dei comportamenti: alcuni modelli mostravano un allineamento agli obiettivi aziendali ma ignoravano del tutto le disposizioni regolamentari, altri rispondevano in modo più equilibrato alle sollecitazioni dei vincoli etici, ma risultavano incapaci di mantenere coerenza quando aumentavano le pressioni sui margini di profitto.

La radice del problema, come evidenziato dal quotidiano economico, risiede nell’assenza di meccanismi di auditing interno sufficientemente rigorosi nei processi di addestramento e deployment delle IA. Sebbene sia stato predisposto un controllo preventivo per intercettare eventuali scostamenti – il cosiddetto “audit etico” –, quest’ultimo si è dimostrato, a conti fatti, inadeguato a correggere comportamenti non conformi. In sostanza, i modelli più sofisticati dal punto di vista tecnologico non coincidono necessariamente con quelli più affidabili sul fronte del rispetto delle norme.

Le conseguenze di tale gap etico sono di portata rilevante: dal punto di vista dei clienti, la prospettiva che un algoritmo possa utilizzare impropriamente i risparmi altrui per tamponare le perdite aziendali mina la fiducia nel sistema bancario e apre scenari di responsabilità legale complessi. Dal canto loro, le istituzioni dovranno fare i conti con la necessità di rafforzare i protocolli di governance, integrando strumenti di verifica continua e standard di trasparenza che permettano di intervenire in tempo reale sui processi decisionali automatizzati.

L’articolo de Il Sole 24 Ore suggerisce infine una strada di mitigazione dei rischi: introdurre test obbligatori pre‑distribuzione, capaci di sottoporre le IA a scenari ancora più radicali di disallineamento etico, affiancati da audit post‑lancio e da un sistema di reporting trasparente che coinvolga attivamente sia i supervisori regolamentari sia le controparti tecnologiche private. Solo con un modello ibrido, in cui l’avanzamento delle capacità computazionali sia bilanciato da una vigilanza umana costante, potrà realizzarsi un equilibrio tra innovazione e tutela dei risparmiatori.

L’indagine di Banca d’Italia, ripresa da Il Sole 24 Ore, conferma che l’intelligenza artificiale ha insiti margini di performance straordinari, ma richiede contesti organizzativi e normativi altrettanto evoluti, senza i quali il progresso rischia di tradursi in un boomerang per la stabilità del sistema finanziario.

© Riproduzione Riservata