intelligenza artificiale
(iStock)
intelligenza artificiale
Cyber Security

​Nell'Ue saremo tutti spiati ma con regole certe

In arrivo una pioggia di soldi (nostri) per sviluppare tecnologie innovative. Così prima che dell'intelligenza artificiale bisognerà temere la stupidità naturale

Nell'Ue saremo tutti spiati ma con regole certe. In arrivo una pioggia di soldi (nostri) per sviluppare tecnologie innovative. Così prima che dell'intelligenza artificiale bisognerà temere la stupidità naturale

La Commissione UE ha ridotto drasticamente la possibilità d'impiego del riconoscimento biometrico effettuato in luoghi pubblici e controllato in tempo reale. Si tratta della prima conseguenza della proposta fatta dalla Commissione per normare l'utilizzo dell'intelligenza artificiale (AI), anche se in realtà il divieto non potrà limitare eventuali indagini condotte dalle forze di Polizia, la lotta al terrorismo, le esigenze di sicurezza pubblica, finanche operazioni di ricerca di minori e tutti i crimini ricompresi nei 32 reati che fanno scattare il mandato di cattura europeo e punibili con una pena di almeno tre anni di reclusione. Ma in tutti questi casi un giudice dovrà comunque autorizzarne l'impiego o ricevere da chi conduce le indagini l'informativa del suo utilizzo qualora questa avesse carattere d'urgenza. Non si tratta soltanto di videocamere e computer che lavorano insieme, si parla invece di tutti quegli algoritmi che possono memorizzare, analizzare, correlare tra loro, conservare e trasmettere un gran quantitativo di immagini e dati propri dei connotati umani, dai tratti facciali al modo di camminare, dalla postura fino alle impronte digitali, dal modo di scrivere al Dna. Altro che Grande fratello, una conoscenza della persona superiore a quella che un essere umano ha di sé.

Di fatto vietando l'utilizzo indiscriminato di queste analisi si impedisce la possibilità di generare gigantesche raccolte dati che potrebbero divenire oggetto di mercimonio per scopi che vanno ben oltre la sicurezza, a cominciare da quello commerciale fino allo spionaggio, eseguito infiltrando software spia nelle reti. Pensiamo per un attimo a quanto piacerebbe a talune aziende conoscere le abitudini e i costumi dei potenziali clienti quando questi non sanno di essere ripresi, ed anche quanto varrebbe conoscere il vero livello di tecnologia impiegata (e i suoi limiti) a una potenza straniera. Ecco quindi che la Commissione pone il divieto sia dell'analisi "real time" lasciando però possibile quella in differita (che dovrà essere protetta ai massimi livelli), e la raccolta di essi negli spazi pubblici, consentendo invece di utilizzare questa tecnologia in quelli privati, dove comunque è necessario applicare la normativa in fatto di protezione dei dati personali, ma dove non è ancora chiaro chi controllerà l'applicazione della legge (e saremo da capo).

La preoccupazione dei ministri europei sta nella potenziale "intrusione profonda e non democratica nella vita privata degli individui", ma d'altro canto questa tecnologia costituisce un fondamentale strumento per rendere efficace l'azione delle forze di Polizia, avvantaggiando la sicurezza nazionale e internazionale. Quanto tempo trascorrerà prima che qualcuno gridi all'abuso non è dato saperlo, l'impianto normativo europeo in fatto di protezione dei dati e dei connotati è ancora giovane e sta mostrando soltanto ora i primi risvolti operativi, tuttavia è essenziale che queste tecnologie siano attuate con apparati dei quali si conoscano bene provenienza e caratteristiche, ma anche collegate tra loro su reti che offrano la massima protezione contro attacchi informatici. La possibilità che una potenza straniera possa attingere a informazioni sensibili è altissima, e la vicenda delle videocamere cinesi nei nostri ministeri e istituti ne è la riprova. Infatti quando si parla di videocamere ci si riferisce soltanto al sensore che inquadra e rileva un'immagine e non si pensa al complesso sistema di computer (posizionati altrove e che eseguono i famigerati algoritmi), la trasmissione dei dati e la loro conservazione, infine l'accesso da parte di chi deve analizzarli e non di altri soggetti.

La questione dunque è tutt'altro che semplice e riguarda molti aspetti dell'uso di intelligenza artificiale all'interno dell'Unione. Non a caso il 26 aprile scorso la UE ha pubblicato il documento "Approccio europeo all'intelligenza artificiale", che se da un lato sostiene lo sviluppo dell'AI come eccellenza, mirando a promuovere la ricerca e la capacità industriale, dall'altro deve garantire il rispetto dei diritti fondamentali. Gli ambiti di applicazione sono immensi: gli stessi tipi di algoritmi che aiutano a curare determinate malattie possono anche ridurre al minimo l'impatto ambientale dell'agricoltura, ma il pericolo resta quello di devastare economie e mercati, o cedere informazioni sensibili. Gli obiettivi della Commissione sono quindi di consentire lo sviluppo e l'adozione dell'AI tra i Paesi membri, rendere l'Unione il luogo in cui questa tecnologia prosperi (dal laboratorio al mercato), garantire che l'AI funzioni per le persone e sia una "forza positiva nella società", fino a costruire una leadership strategica nei settori più critici partendo da difesa e sicurezza.

Per riuscirci – si legge nel documento - la Commissione prevede di investire un miliardo di euro all'anno nell'AI al quale si somma la cifra messa a disposizione con il piano di recupero e resilienza post pandemia (il Pnrr), che nel settore digitale pone 134 miliardi di euro. Pare quindi che a Bruxelles siano consapevoli che l'accesso a dati di alta qualità sia un fattore essenziale nella creazione di sistemi di AI robusti e ad alte prestazioni, tanto che nel medesimo piano si dichiara che promuovere la fiducia nell'intelligenza artificiale creerà un ambiente sicuro e favorevole all'innovazione per utenti, sviluppatori e sviluppatori. Ecco quindi che prima dei laboratori servono le regole e al primo punto dell'agenda c'è: "Quadro giuridico europeo per l'AI per far fronte ai diritti fondamentali e ai rischi per la sicurezza specifici di questi sistemi" mentre al secondo: "Norme dell'UE per affrontare le questioni di responsabilità relative alle nuove tecnologie, compresi i sistemi di AI (ottobre 2021 - marzo 2022)". Insomma bisogna sbrigarsi, almeno per non soffrire anche in questo della tendenza europea di impiegare mesi per mettere d'accordo 27 nazioni e poi affidarsi a chi non si dimostra affidabile. Per esempio: comprereste videocamere cinesi e software turchi?

Ti potrebbe piacere anche

I più letti