In un corridoio silenzioso di Humanitas Mater Domini a Castellanza o nelle sale della Breast Unit di Milano, un server elabora migliaia di mammografie in pochi secondi. Identifica un gruppo di pixel quasi impercettibile, una variazione della densità mammaria che l’occhio umano potrebbe scartare come semplice tessuto ghiandolare. Non è una simulazione: da gennaio 2026, l’integrazione di software di intelligenza artificiale di ultima generazione nei mammografi digitali con tomosintesi è diventata realtà operativa in questi centri.
L’adozione dell’IA nella diagnostica italiana non è più un esperimento, ma un protocollo clinico. Software basati su reti neurali, come quelli validati dal GISMa (Gruppo Italiano Screening Mammografico) e utilizzati in progetti come BREASTnegative.ai, vengono istruiti su database enormi — oltre 7 milioni di immagini — per riconoscere pattern tumorali con una specificità che tocca il 90%. Il sistema non si limita a cercare il cancro: valuta oggettivamente la densità senologica, uno dei principali fattori di rischio, agendo prima che la patologia diventi visibile ai test tradizionali.
La sfida dell’IA tra Humanitas e centri d’eccellenza
Il dilemma si sposta però dal piano tecnico a quello temporale. Se un algoritmo predittivo, come quelli in fase di test presso il Politecnico di Milano all’interno della rete europea UNICA, identifica una probabilità elevata di sviluppo maligno nei successivi 24 mesi, il medico si trova davanti a un bivio. Intervenire subito significa rischiare il sovratrattamento di una lesione che potrebbe restare silente; attendere significa ignorare un alert tecnologico che potrebbe salvare una vita.
In Italia, il quadro legislativo — fermo alla Legge Gelli-Bianco — fatica a seguire la velocità del silicio. La responsabilità della diagnosi finale resta in capo al medico, ma la “diagnosi invisibile” crea un corto circuito legale. Se il software segnala una criticità in un ospedale come il Kauno Klinikos o nei centri Humanitas Medical Care e il radiologo decide di non procedere, la sua posizione diventa vulnerabile in caso di successiva comparsa del tumore.
Dalla “Black Box” alla responsabilità medica condivisa
Il rischio concreto è la nascita di una medicina difensiva tecnologica: il professionista potrebbe ratificare ogni suggerimento della macchina solo per evitare ripercussioni legali. La “black box” dell’algoritmo rende inoltre complesso il consenso informato: come spiegare a un paziente che deve operarsi sulla base di un calcolo probabilistico che nemmeno il chirurgo sa spiegare fin nei minimi dettagli logici?
La sfida del 2026 risiede nella creazione di una catena di responsabilità condivisa. Il modello non è la sostituzione, ma la “scrivania aumentata”, dove l’AI funge da secondo lettore obbligatorio per ridurre i falsi negativi (che pesano ancora sulla sanità pubblica). Il successo di questa rivoluzione dipenderà dalla capacità di ospedali e università di gestire il paradosso della previsione: imparare a fidarsi di una macchina che vede l’invisibile, mantenendo l’umanità — e l’onere — della decisione clinica finale.
