La Corea del Sud ha dato il via all’entrata in vigore dell’AI Basic Act, la legge considerata la prima disciplina organica al mondo per la regolamentazione dell’intelligenza artificiale generativa. A partire dal 22 gennaio 2026, le aziende che producono e distribuiscono contenuti generati dall’IA devono apporre marcature (watermark) per indicare che testi, immagini, video o audio sono prodotti da algoritmi e non da persone. L’obiettivo dichiarato è aumentare trasparenza e fiducia nei sistemi di IA, contrastando fenomeni come i deepfake e la disinformazione.
Come funzionano i watermark previsti dalla norma
Secondo il testo della legge, che prende il nome ufficiale di Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness, i contenuti generati devono essere identificati in modo chiaro e visibile se possono essere confusi con materiali reali. Per contenuti considerati artificiali e facilmente riconoscibili come tali — ad esempio animazioni o webtoon — la normativa ammette l’uso di watermark digitali invisibili rilevabili da software, ma per deepfake e media sintetici realistici il watermark deve essere percepibile dagli utenti.
La legge si applica solo ai operatori commerciali che forniscono prodotti o servizi basati su IA generativa, non ai singoli utenti che utilizzano strumenti IA a fini personali o hobbistici. Inoltre è previsto un periodo di tolleranza di circa un anno durante il quale le autorità non imporranno sanzioni per permettere alle imprese di adeguarsi alle nuove regole.
Un altro elemento che emerge dalle norme è la distinzione tra IA generativa e “high-impact AI” (IA ad alto impatto), ossia quei sistemi che possono influire in modo significativo su settori sensibili come salute, trasporti o finanza. Per questi casi è richiesto non solo il watermarking, ma anche una maggiore trasparenza sui rischi, piani di gestione e monitoraggio.
Nonostante il principio di trasparenza costituisca il cuore della normativa, permangono difficoltà pratiche nell’applicazione. Molti strumenti online soggetti alla legge o meno consentono di rimuovere o oscurare watermark con pochi clic, sollevando dubbi sulla reale efficacia delle regole nel prevenire l’uso improprio dei contenuti sintetici.
I limiti dell’enforcement e il nodo dei contenuti esteri
Un ulteriore tema riguarda l’extraterritorialità: la legge richiede alle aziende straniere di nominare un rappresentante locale per ottemperare agli obblighi quando operano nel mercato sudcoreano, ma questa disposizione si applica solo se vengono raggiunte determinate soglie di fatturato o numero di utenti. Questo lascia fuori molti strumenti e piattaforme che generano contenuti ma non compiono attività dirette nel Paese, rendendo difficile per le autorità controllare la produzione e diffusione dei contenuti generati all’estero.
Un equilibrio difficile tra regolazione e competitività
Per quanto riguarda le sanzioni, il quadro normativo prevede multe amministrative per chi non rispetta gli obblighi di trasparenza — fino a circa 30 milioni di won (circa 20.000 euro) — ma queste potranno essere applicate pienamente solo dopo il periodo di transizione previsto dalla legge.
Il Basic Act sudcoreano si colloca in un contesto internazionale in evoluzione: l’Unione Europea sta attuando il suo AI Act in diverse fasi e altre giurisdizioni stanno dibattendo obblighi simili di etichettatura per i contenuti sintetici, ma la Corea si distingue per aver implementato un framework completo già in piena applicazione.
Resta da vedere come evolveranno gli strumenti tecnici e le regole di enforcement nei prossimi mesi e anni, e se altri Paesi seguiranno l’esempio sudcoreano adottando normative analoghe per rispondere alle sfide poste dalla diffusione rapida dell’intelligenza artificiale generativa.
