Quali sono i confini del fair use, dell’equo compenso delle opere coperte da copyright al fine di istruire i modelli di Intelligenza Artificiale quali quelli di Anthropic?
Una domanda che non trova per il momento risposte univoche. Lato editori spesso si inviano diffide o si iniziano cause, confidando di poter chiedere miliardi alle ricche società della Silicon Valley anche per libri che nessuno acquista più. Lato piattaforme si parte dalla posizione opposta, ritenendo che un’I.A. che legga un libro al fine di poterne parlare non differisca da un umano che faccia la stessa cosa.
Una prima risposta arriva dall’accordo stragiudiziale tra Anthropic e i promotori della class action Bartz vs Anthropic. Un accordo che potrebbe creare un precedente anche per gli editori italiani, inclusi quelli radiofonici, che producono contenuti originali.
Sintesi
Il 5 settembre 2025 si è concluso un accordo stragiudiziale sul caso Bartz vs Anthropic: le parti hanno convenuto un risarcimento da 1,5 miliardi di dollari che segna il primo importante precedente mondiale sui diritti d’autore nell’addestramento dell‘I.A. Anthropic ha accettato di pagare 3.000 dollari per ciascuna delle 500.000 opere scaricate illegalmente da archivi pirata come Library Genesis e Pirate Library Mirror. L’accordo obbliga l’azienda a distruggere tutte le copie piratate e si estende anche ad autori non statunitensi, compresi quelli italiani.
L’accordo, ancora soggetto a ratifica giudiziaria, esclude esplicitamente i contenuti futuri generati dall’I.A. e copre solo le violazioni precedenti al 25 agosto 2025.
La valorizzazione di 3.000 dollari per ogni opera potrebbe diventare il benchmark internazionale per cause simili contro OpenAI, Google e altre aziende big tech.
Tuttavia, rimangono irrisolte le questioni sui diritti delle opere derivate generate dall‘I.A., poiché la legge statunitense non riconosce automaticamente il copyright sui contenuti creati senza significativo contributo umano.
Non solo Anthropic
Anthropic (o meglio dire claude.ai) è uno dei grandi modelli di I.A., al pari di Gemini di Google, GPT-5 di OpenAI, o Grok-4 di xAI: tutte società attualmente oggetto di decine di altre class action. La società guidata per il 50% dall’italiano Dario Amodei è dunque la prima ad aver raggiunto un accordo, oltretutto molto interessante per gli autori: 3.000 dollari a titolo.
Perché i libri
Iniziamo con il dire che la qualità delle sorgenti è essenziale per rendere “intelligente” una I.A.: esattamente come per gli adolescenti, letture di spessore comportano la formazione di una solida cultura, in grado anche di discernere il vero dal falso. Ovvio che nella fase di pre-training delle I.A. si cerchi, oltre ai contenuti online facilmente digeribili, di acquisire anche le conoscenze che vengono da opere spesso disponibili solo su carta.
Il caso Bartz v. Anthropic
Il 5 settembre 2025, il caso Bartz et al. vs Anthropic PBC (No. 3:24-cv-05417-WHA, Corte Distrettuale della California del Nord) ha segnato un punto a favore degli autori. Andrea Bartz, Kirk Wallace Johnson e Charles Graeber hanno trascinato Anthropic in tribunale, accusandola di aver scaricato e utilizzato illegalmente migliaia di libri protetti da copyright da Library Genesis (LibGen) e Pirate Library Mirror (PiLiMi). Si tratta di archivi pirata noti per distribuire copie non autorizzate di centinaia di migliaia di opere.
Archivi ombra e vecchi libri
Secondo la denuncia, Anthropic avrebbe sfruttato questi “archivi ombra” per addestrare i propri modelli di intelligenza artificiale, senza autorizzazione né compenso per gli autori. Uso parziale, da quanto si sa: l’azienda aveva comunque comprato quantità enormi di libri usati, sottoponendoli a un originale processo di distruzione della copertina e della rilegatura al fine di poterne scansionare senza troppi problemi le pagine. Ma, nell’impossibilità di reperire “tutti” i testi mai pubblicati, la società avrebbe in qualche fase della sua vita deciso di attingere anche agli archivi proibiti.
Non solo autori USA
Un sito ufficiale, raggiungibile all’indirizzo https://www.anthropiccopyrightsettlement.com/, dichiara: “Se ritieni che Anthropic possa aver scaricato il/i tuo/i libro/i da LibGen o PiLiMi puoi utilizzare il nostro modulo dove fornire tutte le informazioni di contatto”.
I nostri testi sono compresi?
Come sapere se i nostri titoli (parliamo ovviamente a chi ne ha pubblicati) sono compresi nell’elenco e sperare dunque in 3.000 dollari che cadono dal cielo? Un sito specifico è in grado di fornire la risposta, come si può vedere nell’immagine qui sopra.
I termini dell’accordo
Secondo Bloomberg l’accordo prevede:
- Pagamento record: Anthropic verserà 1,5 miliardi di dollari, più interessi, in un fondo di compensazione, pari a circa 3.000 dollari per ciascuna delle 500.000 opere incluse nella classe certificata.
- Distruzione delle copie pirata: Anthropic è obbligata a eliminare tutti i file scaricati da LibGen e PiLiMi, oltre a qualsiasi copia derivata.
- Limitazioni temporali: L’accordo copre solo le violazioni avvenute prima del 25 agosto 2025 e non concede licenze per utilizzi futuri.
- Esclusione degli output: Nessun diritto viene rilasciato per i contenuti generati dai modelli I.A. di Anthropic.
- Opere non incluse: Gli autori mantengono i diritti su tutte le opere non presenti nella lista certificata.
Anche autori italiani
L’accordo sembra riguardare anche autori italiani. The Atlantic ha pubblicato uno strumento (“search libgen data“) utile per determinare se un certo titolo ha fatto parte degli archivi piratati. L’indirizzo è questo.
Nell’esempio riportato, la nota ex blogger Dottoressa Dania (Daniela Farnese) risulta aver diritto a 9.000 dollari (circa 7.697 euro al cambio di settembre 2025), pagati direttamente dalla società di San Francisco.
Not so easy
Detto fatto? Non proprio…
L’accordo è soggetto all’approvazione della “Corte Federale” e infatti l’otto settembre 2025 il giudice federale William Alsup ha detto di essere “deluso” dal fatto che le parti abbiano lasciato “questioni importanti” in sospeso per il futuro. Manca ad esempio una lista delle opere coperte dall’accordo e le procedure per informare i potenziali membri della class action.
Avvocati troppo aggressivi?
Alsup ha rimproverato gli avvocati della class action per aver arruolato un’armata di legali incaricati della distribuzione dei fondi del patteggiamento, inclusi alcuni provenienti dall’Authors Guild e dall’Association of American Publishers.
Ha dunque precisato che gli avvocati aggiuntivi non saranno pagati con i fondi del patteggiamento e che le parcelle dei legali saranno calcolate in base a quanto verrà effettivamente distribuito ai membri della class action.
Autori multipli
In merito alle opere su cui più autori possano detenere diritti, Alsup ha ordinato alle parti di predisporre un modulo che preveda l’adesione al patteggiamento da parte di chiunque detenga diritti d’autore sull’opera. E se anche solo uno dei titolari si rifiuta di aderire, quell’opera non sarà coperta dall’accordo.
Controversie
Ha anche aggiunto che in caso di controversie sulla titolarità, le parti dovranno rivolgersi ai tribunali statali. Alsup ha fissato al 15 settembre la scadenza per la presentazione di un elenco definitivo delle opere, che attualmente ammonta a circa 465.000 titoli.
Opere derivate
I numerosi articoli che illustrano la vicenda non affrontano il problema di chi possegga i diritti di eventuali future opere generate da claude.ai sulla base di titoli per i quali siano stati pagati i famosi 3.000 dollari. Abbiamo dunque chiesto a Claude.ai (ma facendo poi fare una sorta di fact checking a Grok) di analizzare atti e documenti e fornirci una risposta. Ecco quanto ci ha risposto.
Chi detiene i diritti sui “nuovi libri” creati da Claude?
Secondo l’attuale legge sul copyright negli Stati Uniti (come interpretata dall’U.S. Copyright Office), le opere generate dall’I.A. non sono automaticamente protette da copyright se create senza un significativo contributo umano: l’autore deve essere umano. Pertanto, se Claude.ai genera un nuovo libro interamente da solo (ad esempio, tramite un prompt), Anthropic potrebbe non detenere un copyright su di esso; l’opera potrebbe entrare nel pubblico dominio.
L’importanza del Prompt
Tuttavia, se un utente umano fornisce un prompt a Claude.ai e contribuisce in modo creativo (ad esempio, modificando o strutturando il contenuto), quell’utente potrebbe rivendicarne la proprietà del prodotto finale. In merito ai termini di servizio di Anthropic da settembre 2025 generalmente concedono agli utenti la proprietà degli output generati con Claude.ai, ma Anthropic conserva il diritto di utilizzare tali risultati per migliorare i propri modelli.
Opere derivate
E (nuovamente) tuttavia, se il nuovo libro è basato su un’opera originale di un autore (ad esempio, Claude.ai riassume, parafrasa o trae trame/idee da un libro piratato usato per l’addestramento), potrebbe essere considerato un’opera derivata o una violazione. In altre parole Anthropic (o l’utente) potrebbe possedere il nuovo libro in senso pratico, ma se viola il copyright, l’autore originale potrebbe contestarne la proprietà o richiedere danni o ingiunzioni.
Nessun automatismo
Ma, e per un’ultima volta dobbiamo scrivere tuttavia, l’accordo esclude esplicitamente gli output e l’addestramento futuro. Se Claude.ai produce qualcosa basato sull’opera di un determinato autore dopo l’accordo, questo non ha diritto automaticamente a una quota: deve intentare una nuova causa dimostrando la violazione, operazione non facile, considerato che i modelli di I.A. sono (necessariamente, o meglio intrinsecamente) scatole nere.
Output/input
Ricondurre un output specifico a un input di addestramento è tecnicamente complesso se non, per il momento, impossibile.
Un precedente per il futuro
Comunque si concluda la vicenda, il caso Bartz v. Anthropic segna un precedente storico, non solo per l’entità economica dell’accordo, ma per il suo impatto sulla regolamentazione dell‘I.A. In particolare, la valorizzazione a 3000 dollari per opera, pur se determinata in base alla specifica possibilità finanziaria attuale di Anthropic (molto alta in modo da impattarne i conti ma non tanto da costringere la società a portare i libri in tribunale), potrebbe diventare un punto di riferimento a livello mondiale per tutte le cause di natura simile. (M.H.B. per NL)