chat gpt3
(Getty Images)
Cyber Security

Garotti: «L'algoritmo dell'Ai dovrà tutelare proprietà industriale e diritto d'autore»

Licia Garotti, responsabile del Dipartimento di Diritto delle Tecnologie e di Proprietà Intellettuale e Industriale dello Studio Gattai, Minoli, Partners, spiega rischi e opportunità dell'intelligenza artificiale. «I sistemi dovranno quindi rispettare requisiti di trasparenza, con gli obblighi, tra l’altro, di comunicare in maniera chiara che il contenuto è stato generato dall'IA, di condividere le informazioni sui dati protetti dal diritto d’autore utilizzati per l’addestramento dell’algoritmo e di allenare e progettare il modello in maniera tale da evitare che questo generi contenuti illegali»

Le applicazioni di intelligenza artificiale generativa come ChatGPT e Midjourney possono modificare in modo significativo il lavoro “umano”. Non è ancora chiaro quale forma assumerà questo tipo di impatto, ma uno degli scenari possibili è che una concorrenza algoritmica sleale e una governance inadeguata portino all’esclusione dell’autentica creatività umana. Recenti cause legali contro importanti piattaforme di IA generativa denunciano violazioni di copyright su vasta scala. Quel che rende la questione ancora più spinosa è che le leggi sulla proprietà intellettuale non sono al passo con i progressi tecnologici compiuti nel campo della ricerca sull’IA. È, ad esempio, possibile che i governi passino decenni a litigare su come bilanciare gli incentivi per l’innovazione tecnica mantenendoli per l’autentica creazione umana. In questo scenario, l’IA generativa cambia significativamente la struttura degli incentivi per i lavoratori e aumenta i rischi per le imprese e la società. Per essere preparati, insomma, dobbiamo comprendere le minacce e le sfide che ne derivano. Ma mentre capiamo cosa cambierà, e come, sullo sfondo si sta disegnando la griglia normativa all’interno della quale l’Ai potrà muoversi in modo che il sistema sia affidabile e sicuro. Lo scorso 11 maggio è stato fatto un ulteriore passo verso l’adozione della prima regolamentazione sull’intelligenza artificiale. L’Internal Market Committee e il Civil Liberties Committee hanno adottato il progetto di mandato negoziale per la discussione del cosiddetto AI Act. Il progetto dovrà essere approvato dal Parlamento (il voto è previsto nella sessione del 12-15 giugno) per poi iniziare i negoziati con il Consiglio sulla versione definitiva del Regolamento.

Licia Garotti

<Tra le varie modifiche volte a rafforzare l’obiettivo europeo di promuovere uno sviluppo dell'Intelligenza artificiale in Europa etico, affidabile e incentrato sull'uomo, sono state approvate nuove regole di trasparenza e di gestione dei rischi. Gli obblighi di trasparenza per i sistemi ad alto rischio trovano ora espressa applicazione anche con riferimento ai modelli di Intelligenza Artificiale generativa, come ChatGpt (o Midjourney per le immagini). Anche questi sistemi dovranno quindi rispettare requisiti di trasparenza, con gli obblighi, tra l’altro, di comunicare in maniera chiara che il contenuto è stato generato dall'IA, di condividere le informazioni sui dati protetti dal diritto d’autore utilizzati per l’addestramento dell’algoritmo e di allenare e progettare il modello in maniera tale da evitare che questo generi contenuti illegali>, spiega Licia Garotti, responsabile del Dipartimento di Diritto delle Tecnologie e di Proprietà Intellettuale e Industriale dello Studio Gattai, Minoli, Partners. <L’Europa è potenzialmente in gara per diventare leader nella realizzazione di uno spazio europeo dei dati, come testimonia anche il supercomputer Leonardo, inaugurato nel novembre scorso a Bologna e che si prefigge di garantire l’80% della potenza di calcolo italiana e oltre il 20% di quella europea>, aggiunge l’esperta.

Come mettere a terra un piano ambizioso senza fissare troppi paletti che rischiano di ingessare lo sviluppo tecnologico?

<Con un approccio basato sul rischio. A seconda del grado di rischio impattato da determinati modelli, alcuni sistemi (come, ad esempio, il social scoring) sono vietati per definizione. A questi si aggiungono i sistemi ad alto rischio, cui è invece dedicato un set di norme specifiche per andare a bilanciare, appunto, la tutela dei diritti fondamentali con lo sviluppo tecnologico, quest’ultimo necessariamente da incoraggiarsi. Non dimentichiamo, poi, che la tecnologia viaggia a una velocità sempre maggiore rispetto alla normativa: recentemente la stessa definizione di intelligenza artificiale è stata cambiata, proprio per ricomprendervi le AI generative come ChatGPT e gli altri Foundation Models (ossia quei sistemi senza uno scopo specifico e definito, che sono addestrati sulla base di grandi set di dati non etichettati, per adattarsi a varie applicazioni). I sistemi “ad alto rischio” dovranno garantire una protezione importante ai diritti fondamentali, dando informazioni sui dati che sono stati utilizzati, su come lavora l’algoritmo e su come sono usati i diritti di proprietà industriale coperti da diritto di autore e diritto industriale>.

Questo non è un dettaglio da poco.

<Assolutamente no: condividere modalità di progettazione del modello potrebbe significare dover dare indicazioni di regole che sono, tuttavia, potenzialmente oggetto di diritti di privativa industriale. Pensiamo all’innovazione sfruttata in regime di segretezza: questa ha un valore economico proprio perché è segreta. Ciò potrebbe implicare problematiche importanti in tema di disclosure. E, quindi, di contenziosi. La questione non è ignorata dalla proposta di AI Act: a più riprese si è cercato di conciliare l’obbligo di trasparenza con il rispetto della riservatezza delle informazioni e dei dati ottenuti dalla Commissione e da quelle che saranno le autorità competenti in materia, proprio per tutelare i diritti di proprietà intellettuale e le informazioni commerciali riservate (trade secrets). Ciò non esclude, tuttavia, l’opportunità di adottare standard comuni per garantire la sicurezza dei sistemi di intelligenza artificiale (come peraltro auspicato da Enisa, l’Agenzia dell’Unione Europea per la Sicurezza Informatica (European Union Agency for Cybersecurity). Standard e diritti IP non sono antitetici: una tecnologia essenziale per un determinato standard bene potrà essere protetta, ad esempio, da brevetti. Pensiamo alla tecnologia usata nei telefoni cellulari che al loro interno hanno milioni di brevetti essenziali. L’ETSI (l'Istituto Europeo per le norme di Telecomunicazioni o European Telecommunications Standards Institute) è già da qualche anno al lavoro per realizzare uno standard mondiale, anche ai fini di maggiore interoperabilità>.

Il punto è che una volta fissate le regole va trovato anche chi le fa rispettare, e quindi anche chi applica eventuali sanzioni. Chi sarà il responsabile?

<La proposta di Regolamento sull’Intelligenza Artificiale non individua le Autorità che, anche a livello nazionale, avranno il compito di fare rispettare la normativa. Possiamo però fare qualche ipotesi. L’AI si nutre di dati, quindi ci si potrebbe aspettare che sarà il Garante Privacy ad avere una funzione importante in tale prospettiva. Allo stesso tempo, il concetto di dati va ben oltre i dati personali (ancorché questi abbiano un’importanza chiaramente fondamentale). Ad Agcom, ad esempio, si sta dando delega sempre più ampia anche in materia di tutela della proprietà intellettuale nella società dell’informazione>.

I più letti

avatar-icon

Camilla Conti