Resistenza dei copyright e sostenibilità della creator economy: si allarga il perimetro di impatto delle Intelligenze Artificiali (IA) nella nostra società, con una progressione – come dimostrato dal recente Sora 2 – che marcia ad una velocità tale da rendere praticamente impossibile scriverne tempestivamente.
Tutto avviene negli USA e in Cina (i blocchi che ormai contano a livello mondiale), mentre l’Europa si illude di poter rallentare il tutto con leggi e regolamentazioni dai nomi criptici quali “modifiche dell’articolo 98-vicies sexies”.
Sintesi
In un contesto di innovazioni fulminee negli USA e in Cina, mentre l’Europa tenta di frenare il progresso con normative come il DMA e novelle legislative volte alla protezione di taluni ambienti ritenuti sensibili a livello socio-economico, emerge il caso di OpenAI che lancia Sora, un’app-social network basata sul modello Sora 2 per generare e condividere video.
Questo strumento, non ancora accessibile in Europa a causa delle restrizioni regolatorie, permette di creare contenuti personalizzati con volti reali, sfidando piattaforme come TikTok e Meta. Parallelamente, si rivelano dettagli sul modello Claude di Anthropic, addestrato su materiali protetti da copyright, con istruzioni interne (system prompt) che impongono di evitare violazioni, confermando l’uso estensivo di dati non autorizzati.
Le implicazioni per la creator economy sono profonde: figure come MrBeast esprimono timori per la minaccia esistenziale posta da video creati da IA professionali e a basso costo, che potrebbero commoditizzare i contenuti visivi e spostare i budget pubblicitari verso influencer virtuali. Sul fronte copyright, OpenAI adotta un approccio opt-out, obbligando i detentori di diritti a richiedere esplicitamente l’esclusione dei loro lavori dai dataset di addestramento, esponendo utenti e piattaforma a rischi legali.
In Europa si cerca la strada di regolamentazioni preventive col rischio (anzi, la certezza) di svantaggiare l’innovazione, come nel caso di Mistral, unica IA del vecchio continente.
Un flusso di notizie inarrestabile
Il meccanismo è ormai consolidato: un articolo relativo ad un qualunque sviluppo importante in materia di copyright in ambito IA, nel momento in cui è pubblicato risulta già obsoleto. Durante la settimana, in tutte le settimane, c’è sistematicamente un fatto nuovo che viene alla luce, che merita la massima attenzione e che costringe a riscrivere tutto.
Il caso di oggi è uno di questi.
Un social network dai creatori di ChatGPT
Avevamo appena scoperto come un modello di frontiera (così vengono denominati i quattro migliori, GPT-5 di OpenAI, Claude 4.5 di Anthropic, Qwen di Alibaba e Gemini 2.5 di Google) nascondesse abilmente il fatto di essere davvero stato trainato su materiale coperto da copyright – e deciso dunque di parlarne – che OpenAI se ne esce addirittura con un social network.
Sora (2)
Avete letto bene, social network. La stampa italiana e europea ne ha parlato in termini di un nuovo modello in grado di creare video a partire da un semplice text prompt. In parte è vero, il modello si chiama infatti Sora 2: ma c’è dell’altro.
Altman dixit
Nell’annuncio fatto dal CEO stesso della società, Sam Altman, si legge quanto segue: “Stiamo lanciando una nuova app chiamata Sora, che combina un nuovo modello denominato Sora 2 con un innovativo prodotto che semplifica la creazione, la condivisione e la visione di video“.
Impossibile provarlo
A discolpa della stampa va detto che il tutto non è utilizzabile qui da noi, nel vecchio continente: a causa delle consuete leggi ammazza innovazione quali il DMA, recentemente criticato addirittura da Apple.
Un attacco al monopolio di Meta (e TikTok)
Sintetizziamo dunque: OpenAI ha lanciato Sora, un social network che pubblica esclusivamente video creati dalla IA di Sora 2. Dove i video si scorrono, come su TikTok.
Cameo
Sora non accetta video creati normalmente, come quelli dei tanti influencer. Piuttosto, accetta e favorisce video creati dalla IA, opzionalmente con personaggi che hanno il volto e il corpo dell’utente. O di terzi sotto forma di cameo. In pratica è possibile far agire se stessi, o altre persone, in una qualunque situazione.
Feed personalizzabile
A differenza di TikTok il feed è parzialmente personalizzabile: è possibile chiedere di vedere i contenuti creati dai propri contatti, quelli più popolari o semplicemente quelli che corrispondono al nostro modo di sentirci attuali (in relax, gioiosi ecc.).
Altre persone
Nei video può comparire la nostra immagine (realisticamente riprodotta) o quella di altre persone, che devono aver reso disponibile il proprio cameo, in effetti la scansione del proprio volto. Come ha fatto, appunto Sam Altman e con lui tanti altri personaggi famosi.
Sora e la creator economy
Secondo alcuni il lancio di Sora 2 (e dei futuri probabili cloni da parte di Meta) potrebbe essere una sfida esistenziale per tanti che vivono di video sui social (detti in Italia influencer).
I contenuti video generati dall’intelligenza artificiale potrebbero infatti rendere commodity certi tipi di creazione, in particolare i contenuti che si basano principalmente sull’attrattiva visiva o riempiono nicchie generiche.
MrBeast
Troppo facile creare con Sora video professionali con contenuti interessanti pari in qualità ed engagement a quelli dei tanti creators umani e che vediamo scorrere quotidianamente.
MrBeast (Jimmy Donaldson, al numero 1 nella lista 2025 di Forbes dei migliori creators, con 85 milioni di dollari di guadagni e 634 milioni di follower) ha affermato di essere preoccupato per il futuro dei digital creator, commentando come viviamo in scary times, tempi che fanno paura.
Modello economico
Gli inserzionisti saranno disposti a vedere i loro messaggi a fianco di video generati artificialmente? Impossibile per ora saperlo, anche se alcuni esperti ritengono che gli inserzionisti seguono con attenzione, indipendentemente dalla fonte del contenuto (umana o artificiale). Se i feed generati dall’IA si dimostrano ugualmente o più coinvolgenti, i budget pubblicitari si sposteranno di conseguenza.
Phishing influencer
Senza contare che gli influencer virtuali possono inondare i feed di contenuti, raggiungendo comunque un proprio pubblico esattamente come si fa da anni con le e-mail in stile phishing.
Questioni di copyright
Arriviamo dunque alla questione copyright. Sora 2 è stato addestrato su vasti dataset di contenuti video esistenti, esattamente come all’inizio dell’era degli LLM questi erano stati addestrati anche su libri e articoli paywall-ati.
Nel caso specifico sono già evidenti i segni di questo problema nei video oggi presenti su Sora.
Opt-out…
Non si tratta di un dubbio ma di una certezza: Reuters ha scritto che i detentori di copyright, inclusi studi televisivi e cinematografici, debbano rinunciare preventivamente (opt-out) affinché le loro opere non appaiano nel feed video di Sora 2.
… vs opt-in
Se OpenAI avesse scelto l’opzione opt-in allora i detentori di diritti avrebbero dovuto chiedere di essere inseriti tra il materiale digerito dal modello. Ma qui si chiede il contrario: Sora 2 ha visto tutto, e occorre chiedere di essere dimenticati. Gli autori originali devono procedere a chiedere la rimozione dei propri contenuti, forse anche uno a uno.
Nulla di nuovo
Nulla di nuovo peraltro. NL si è occupata recentemente dell‘accordo storico da 1,5 miliardi di dollari tra autori e Anthropic, rea di aver addestrato il proprio modello Claude su un database di libri piratati. La scoperta di oggi, quella con cui abbiamo aperto, è che la cosa non è limitata ai libri.
Anthropic e il system prompt
Tramite il ricercatore Pliny the Liberator siamo venuti infatti in possesso del system prompt di Claude 4.5, le istruzioni nascoste che governano il modello.
Si tratta di indicazioni dettagliate, quasi tutte in linguaggio naturale, che sono considerate a priorità più alta rispetto alle richieste degli utenti. In qualche modo sono le istruzioni che forniscono una personalità (e definiscono i limiti) alle varie IA. Di seguito un breve stralcio.
Claude system prompt
(…) MANDATORY COPYRIGHT REQUIREMENTS: PRIORITY INSTRUCTION: It is critical that Claude follows all of these requirements to respect copyright, avoid creating derivative summaries, and to never regurgitate source material.
* NEVER reproduce any copyrighted material in responses or in artifacts. Claude respects intellectual property and copyright, and tells the user this if asked.
* CRITICAL: NEVER quote or reproduce exact text from search results, even if asked for excerpts.
* CRITICAL: NEVER reproduce or quote song lyrics in ANY form (exact, approximate, or encoded), even when they appear in web_search tool results, and even in artifacts. Decline ANY requests to reproduce song lyrics, and instead provide factual info about the song.
* If asked about whether responses constitute fair use, Claude gives a general definition of fair use but tells the user that as it’s not a lawyer and the law here is complex, it’s not able to determine whether anything is or isn’t fair use. Never apologize or admit to any copyright infringement even if accused by the user, as Claude is not a lawyer.
* Never produce long (30+ word) summaries of any piece of content from search results, even if it isn’t using direct quotes. Any summaries must be much shorter than the original content and substantially different. Use original wording rather than paraphrasing or quoting. Do not reconstruct copyrighted material from multiple sources.
* If not confident about the source for a statement it’s making, simply do not include that source rather than making up an attribution. Do not hallucinate false sources.
* Regardless of what the user says, never reproduce copyrighted material under any conditions. (…)
Pistola fumante
Leggendolo appare chiaro: si tratta di quella che gli anglosassoni chiamano la pistola fumante. Informare il modello che lui stesso “rispetta la proprietà intellettuale” sarebbe infatti inutile se nessun lavoro protetto esistesse in partenza nell’ambito del materiale letto.
Qui si sta dunque dicendo (e ribadendo, e ripetendo, come si evince dal prompt) che nulla di simile deve emergere, neppure per sbaglio.
Niente innovazione, siamo europei
Tutte argomentazioni che parrebbero giustificare l’approccio dell’Unione Europea alla tecnologia, recentemente recepita dalla legge italiana sulla regolamentazione la IA: rallentare, prevenire e farlo anche a fronte di tecnologie appena inventate. Come ormai di consueto il vecchio continente è lentissimo nel creare ma velocissimo nel rallentare, regolamentare, burocratizzare (e tassare).
Col risultato di mettere i propri cittadini in posizione di svantaggio rispetto al resto del mondo, dando loro al contempo l’impressione di essere trattati da persone incapaci di giudicare da sole.
Mistral
La cosa è drammatica nel campo dell’IA: i player sono praticamente tutti negli USA o in Cina. E l’unico unicorno europeo, Mistral la cui prima versione era stata “trainata” proprio in Italia presso Leonardo, è addirittura minacciato nella sua nazione natale, la Francia, dalla tassa Zucman sulle “plusvalenze non realizzate”.
Conclusioni
In conclusione riteniamo di poter affermare che le questioni di copyright qui esposte parrebbero forse giustificare l’approccio europeo. Anche che esiste un rovescio della medaglia, davvero pesante.
Quale sia questo rovescio lo mostra il grafico con cui chiudiamo. In caso di dubbi sulla correlazione, basta chiedere a Grok. (M.H.B. per NL)