I.A. Contenuti Intelligenza Artificiale: Commissione UE pubblica 1^ bozza Codice best practice. Intanto a gennaio lancio piattaforma SITV

codice di best practice I.A.

Code of Practice on Transparency of AI-Generated Content (Codice di best practice per la trasparenza nei contenuti I.A.): con marcatura tecnica (watermark, fingerprint), etichettatura visiva ed obblighi informativi, prende forma il quadro applicativo dell’art. 50 dell’AI Act della Commissione europea.
Consultazione aperta fino al 23/01/2026, versione finale attesa entro giugno 2026.
Intanto, nel nostro Paese, a gennaio 2026, è atteso il lancio della piattaforma della Società Italiana per la Tutela della Voce, primo ente di certificazione e protezione delle voci umane dall’utilizzo illecito di sistemi di I.A.

Sintesi

La Commissione europea ha pubblicato la prima bozza del Code of Practice on Transparency of AI-Generated Content, destinata a supportare l’attuazione dell’art. 50 dell’AI Act sugli obblighi di trasparenza dei contenuti generati o manipolati dall’intelligenza artificiale.
Il Codice di best practice, volontario ma funzionale alla compliance, introduce regole operative su marcatura tecnica (watermark, metadati, fingerprinting), etichettatura visiva ed obblighi informativi verso il pubblico.
Il testo distingue tra fornitori di sistemi di I.A. generativa, chiamati a rendere i contenuti machine-readable e rilevabili come artificiali e deployer, tenuti a dichiarare in modo chiaro deepfake e testi di interesse pubblico privi di revisione editoriale umana.
Ampio spazio è riservato a interoperabilità, standard aperti, accessibilità e proporzionalità per PMI.
La consultazione resterà aperta fino al 23/01/2026, con adozione finale prevista entro giugno ed applicazione obbligatoria dal 02/08/2026.
Nel frattempo, in Italia è atteso per gennaio 2026 il lancio della piattaforma della Società Italiana per la Tutela della Voce, dedicata alla certificazione ed alla protezione delle voci umane dalla clonazione illecita tramite I.A., rivolta a circa 12.000 professionisti del settore (speaker, conduttori, giornalisti, podcaster, attori, doppiatori, ecc.).

La cornice regolatoria dell’AI Act

La Commissione europea ha pubblicato la prima bozza del Code of Practice on Transparency of AI-Generated Content (Codice di best practice per la trasparenza nei contenuti I.A.), destinata a diventare uno degli strumenti centrali di attuazione dell’articolo 50 del Regolamento europeo sull’intelligenza artificiale (AI Act) – testo integrale in calce -, dedicato agli obblighi di trasparenza per i contenuti generati o manipolati tramite sistemi di intelligenza artificiale.

Marking & Labelling

Il documento rappresenta il primo tentativo organico di tradurre in misure operative e tecnicamente verificabili gli obblighi normativi già fissati dal legislatore europeo, con particolare riferimento alla marcatura dei contenuti (marking) ed alla loro etichettatura visibile (labelling) nei confronti del pubblico.

Un codice volontario, ma funzionale alla conformità normativa

Il Codice di best practice per la trasparenza nei contenuti I.A. è concepito come strumento volontario, ma esplicitamente finalizzato a dimostrare la conformità agli obblighi dell’AI Act, senza tuttavia costituire prova definitiva di adempimento. In altri termini, l’adesione al Codice di best practice non sostituisce la responsabilità legale, ma fornisce un percorso strutturato di compliance per fornitori ed utilizzatori di sistemi di I.A.

Codice di best practice per la trasparenza nei contenuti I.A.

Secondo quanto chiarito dalla Commissione europea, il Codice di best practice mira a migliorare il funzionamento del mercato interno, promuovendo un’adozione dell’I.A. che sia affidabile, antropocentrica e rispettosa dei diritti fondamentali, inclusi la tutela della democrazia, dello Stato di diritto e dell’integrità dell’ecosistema informativo.

Due ambiti distinti: fornitori e deployer

La bozza è strutturata in due sezioni principali, ciascuna dedicata a un diverso segmento della filiera dell’intelligenza artificiale.

Sezione 1: fornitori di sistemi di I.A. generativa

La Sezione 1 riguarda i fornitori di sistemi di I.A. generativa, inclusi i sistemi di uso generale, che producono o manipolano testi, immagini, audio e video. A questi soggetti viene richiesto di garantire che i contenuti siano marcati in modo leggibile da macchina e rilevabile come artificiali, attraverso soluzioni tecniche che risultino efficaci, affidabili, robuste e interoperabili, tenendo conto dei limiti tecnologici e dei costi di implementazione.

Sezione 2: deployer

La Sezione 2, invece, è rivolta ai deployer, ossia a coloro che utilizzano sistemi di I.A. per pubblicare o diffondere contenuti verso il pubblico. In questo caso, l’attenzione si concentra sulla divulgazione chiara e distinguibile dell’origine artificiale dei contenuti deepfake e dei testi generati o manipolati dall’intelligenza artificiale quando destinati a informare il pubblico su temi di interesse generale.

La marcatura tecnica: watermark, metadati e fingerprinting

Per i fornitori di I.A., il Codice di best practice introduce il principio di una marcatura multilivello, riconoscendo esplicitamente che, allo stato attuale della tecnologia, nessuna singola tecnica è sufficiente a garantire da sola efficacia e robustezza.

Misure previste

Tra le misure previste figurano: inserimento di metadati firmati digitalmente, contenenti informazioni sull’origine e sulle operazioni effettuate dal sistema di I.A.; watermark impercettibili, integrati direttamente nel contenuto, progettati per resistere a manipolazioni e trasformazioni comuni; fingerprinting o sistemi di logging, utili soprattutto per il testo e per i contenuti che non consentono un embedding sicuro di metadati.

Standard aperti

Il Codice di best practice incoraggia inoltre l’adozione di standard aperti e infrastrutture condivise, al fine di favorire l’interoperabilità e ridurre gli oneri per PMI e startup.

Rilevabilità e strumenti di verifica

Un elemento centrale della bozza è l’obbligo, per i fornitori, di rendere i contenuti effettivamente rilevabili come generati o manipolati dall’I.A. A tal fine, il Codice di best practice prevede la messa a disposizione di strumenti di verifica gratuiti, come API o interfacce pubbliche, che consentano a utenti, piattaforme e autorità di controllo di accertare l’origine artificiale di un contenuto.

Cooperazione inter-autorità

È prevista anche la cooperazione con le autorità di sorveglianza del mercato e, in prospettiva, lo sviluppo di verificatori aggregati condivisi, capaci di riconoscere contenuti provenienti da più fornitori.

Etichettatura dei deepfake e dei testi di interesse pubblico

Sul versante dei deployer, il Codice di best practice stabilisce una serie di obblighi di etichettatura visiva e/o sonora, differenziati in base alla tipologia di contenuto. Per i deepfake (immagini, video o audio che riproducono realisticamente persone, oggetti o eventi), è richiesta una dichiarazione esplicita dell’origine artificiale, mediante un’icona visibile e, in alcuni casi, disclaimer vocali, soprattutto per i contenuti audio-only. Le modalità di esposizione variano a seconda che si tratti di contenuti in tempo reale, video on demand, immagini statiche o produzioni multimodali.

Obbligo di disclosure per testi generati o manipolati dalla I.A.

Per i testi generati o manipolati dall’I.A. su temi di interesse pubblico, l’obbligo di disclosure scatta quando non vi sia stata revisione umana con responsabilità editoriale. In tali casi, l’etichetta deve essere chiara, fissa e visibile al momento della prima esposizione del contenuto.

Eccezioni e proporzionalità

Il Codice di best practice recepisce fedelmente le eccezioni previste dall’AI Act. In particolare, gli obblighi di etichettatura sono attenuati per i contenuti artistici, creativi, satirici o di finzione, purché la disclosure non comprometta la fruizione dell’opera. Analogamente, sono previste deroghe per utilizzi autorizzati dalla legge, come quelli connessi alle attività di contrasto ai reati.

Principio di proporzionalità

Ampio spazio è riservato al principio di proporzionalità, con misure semplificate per le PMI e attenzione ai costi di implementazione.

Accessibilità, alfabetizzazione e cooperazione

Un ulteriore asse portante del Codice di best practice riguarda l’accessibilità delle informazioni, che devono essere fruibili anche da persone con disabilità ed il rafforzamento dell’alfabetizzazione digitale e mediatica sul tema dei contenuti sintetici.

Fact-checking

I firmatari sono inoltre chiamati a cooperare con piattaforme online, organismi di fact-checking e autorità pubbliche, nonché a predisporre canali di segnalazione per contenuti non correttamente etichettati.

Tempistiche e prossimi passi

La consultazione pubblica sulla prima bozza resterà aperta fino al 23/01/2026. Una versione riveduta è attesa entro la primavera, mentre l’adozione definitiva del Codice di best practice è prevista entro giugno 2026, in tempo utile per l’applicazione obbligatoria delle norme di trasparenza dell’AI Act fissata al 02/08/2026.

Fiducia, responsabilità e trasparenza

La pubblicazione del Codice di best practice segna quindi un passaggio chiave nella costruzione di un ecosistema europeo dell’I.A. basato su fiducia, responsabilità e trasparenza, con implicazioni dirette per media, piattaforme digitali, operatori dell’informazione e industria tecnologica.

Società Italiana per la Tutela della Voce

Nel frattempo, sul tema, è atteso per gennaio 2026 il lancio della piattaforma online della Società Italiana per la Tutela della Voce, ente di protezione delle voci umane dalla clonazione illecita da parte di sistemi di I.A. ed organismo certificatore dell’utilizzo di voci umani da parte di produttori audio video.

12.000 tra speaker, conduttori, giornalisti, podcaster, attori, doppiatori, ecc.

L’ente, costituito a Milano nell’ottobre 2025, offrirà a 12.000 operatori della voce italiani (speaker, conduttori, giornalisti, podcaster, attori, doppiatori, ecc.) servizi di tutela contro lo sfruttamento illecito della produzione vocale (attraverso appunto soluzioni di watermarking e fingerprinting come quelle previste dal Codice di best practice), assistenza giuridico-amministrativa, legale, tecnica, strategica, con partnership con i principali collettori di voci umane italiani. (E.G. per NL)

 

CAPO IV
OBBLIGHI DI TRASPARENZA PER I FORNITORI E I DEPLOYER DI DETERMINATI SISTEMI DI IA

Articolo 50

Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA

1. I fornitori garantiscono che i sistemi di IA destinati a interagire direttamente con le persone fisiche sono progettati
e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di
IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta
e avveduta, tenendo conto delle circostanze e del contesto di utilizzo. Tale obbligo non si applica ai sistemi di IA autorizzati
dalla legge per accertare, prevenire, indagare o perseguire reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi,
a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.
2. I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine,
video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente
e rilevabili come generati o manipolati artificialmente. I fornitori garantiscono che le loro soluzioni tecniche siano efficaci,
interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti
dei vari tipi di contenuti, dei costi di attuazione e dello stato dell’arte generalmente riconosciuto, come eventualmente
indicato nelle pertinenti norme tecniche. Tale obbligo non si applica se i sistemi di IA svolgono una funzione di assistenza
per l’editing standard o non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica, o se
autorizzati dalla legge ad accertare, prevenire, indagare o perseguire reati.
3. I deployer di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano
le persone fisiche che vi sono esposte in merito al funzionamento del sistema e trattano i dati personali in conformità dei
regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680, a seconda dei casi. Tale obbligo non si
applica ai sistemi di IA utilizzati per la categorizzazione biometrica e il riconoscimento delle emozioni autorizzati dalla
legge per accertare, prevenire o indagare reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi e conformemente
al diritto dell’Unione.
4. I deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un «deep
fake» rendono noto che il contenuto è stato generato o manipolato artificialmente. Tale obbligo non si applica se l’uso è
autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati. Qualora il contenuto faccia parte di un’analoga
opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente
paragrafo si limitano all’obbligo di rivelare l’esistenza di tali contenuti generati o manipolati in modo adeguato, senza
ostacolare l’esposizione o il godimento dell’opera.
I deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di
interesse pubblico rendono noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se
l’uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati o se il contenuto generato dall’IA è stato
sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la
responsabilità editoriale della pubblicazione del contenuto.
5. Le informazioni di cui ai paragrafi da 1 a 4 sono fornite alle persone fisiche interessate in maniera chiara
e distinguibile al più tardi al momento della prima interazione o esposizione. Le informazioni devono essere conformi ai
requisiti di accessibilità applicabili.
6. I paragrafi da 1 a 4 lasciano impregiudicati i requisiti e gli obblighi di cui al capo III, così come gli altri obblighi di
trasparenza stabiliti dal diritto dell’Unione o nazionale per i deployer dei sistemi di IA.
7. L’ufficio per l’IA incoraggia e agevola l’elaborazione di codici di buone pratiche a livello dell’Unione per facilitare
l’efficace attuazione degli obblighi relativi alla rilevazione e all’etichettatura dei contenuti generati o manipolati
artificialmente. La Commissione può adottare atti di esecuzione per approvare tali codici di buone pratiche secondo la
procedura di cui all’articolo 56, paragrafo 6. Se ritiene che il codice non sia adeguato, la Commissione può adottare un atto
di esecuzione che specifichi norme comuni per l’attuazione di tali obblighi secondo la procedura d’esame di cui
all’articolo 98, paragrafo 2.

 

Questo sito utilizza cookie per gestire la navigazione, la personalizzazione di contenuti, per analizzare il traffico. Per ottenere maggiori informazioni sulle categorie di cookie, sulle finalità e sulle modalità di disattivazione degli stessi clicca qui. Con la chiusura del banner acconsenti all’utilizzo dei soli cookie tecnici. La scelta può essere modificata in qualsiasi momento.

Privacy Settings saved!
Impostazioni

Quando visiti un sito Web, esso può archiviare o recuperare informazioni sul tuo browser, principalmente sotto forma di cookies. Controlla qui i tuoi servizi di cookie personali.

Questi strumenti di tracciamento sono strettamente necessari per garantire il funzionamento e la fornitura del servizio che ci hai richiesto e, pertanto, non richiedono il tuo consenso.

Questi cookie sono impostati dal servizio recaptcha di Google per identificare i bot per proteggere il sito Web da attacchi di spam dannosi e per testare se il browser è in grado di ricevere cookies.
  • wordpress_test_cookie
  • wp_lang
  • PHPSESSID

Questi cookie memorizzano le scelte e le impostazioni decise dal visitatore in conformità al GDPR.
  • wordpress_gdpr_cookies_declined
  • wordpress_gdpr_cookies_allowed
  • wordpress_gdpr_allowed_services

Rifiuta tutti i Servizi
Accetta tutti i Servizi

Ricevi gratis la newsletter di NL!

SIT ONLINE abbonamento circolari Consultmedia su scadenze ordinarie e straordinarie settore radio-tv-editoria: [email protected]

ISCRIVITI ALLA NEWSLETTER