IA. Intelligenza artificiale un anno dopo: voci sintetiche e il misterioso Q* nel nostro futuro?

Rd8z9ArVMycSceC003hxVrAXoj23 mfg33ij - IA. Intelligenza artificiale un anno dopo: voci sintetiche e il misterioso Q* nel nostro futuro?

Da molti anni, ben prima dello scoppiare del fenomeno ChatGPT, Newslinet si occupa di Intelligenza artificiale. Una tecnologia che sta rivoluzionando innumerevoli settori e che non lascerà certo immutato quello del broadcasting. Dopo il debutto di ChatGPT nel novembre 2022 abbiamo assistito a un’accelerazione di annunci, sperimentazioni ed eventi clamorosi culminati nel recente avvicendamento di quattro CEO in tre giorni da parte di OpenAI.
È giunto dunque il momento di fare il punto, cercare di comprendere il motivo di tanti movimenti, ipotizzare cosa sia Q* e gettare uno sguardo alla tecnologia forse più impattante per radio e televisioni.

Un anno di articoli

Per iniziare è utile ricordare alcuni dei principali articoli comparsi proprio sulla nostra testata. A febbraio abbiamo pubblicato un’intervista alla giurista Gloria Siri (Consultmedia) riguardante il problema dei diritti di autore: un tema scottante per chi produce contenuti originali e potenzialmente rischioso per chi utilizza quanto prodotto da un LLM (Large Language Model, la categoria di sistema cui appartengono GPT4/ChatGPT, Anthropic, Inflection.ai e LLAMA-2).

Creators

Il tema  – irrisolto durante l’anno – è: i creatori di contenuti devono essere retribuiti quando il materiale da loro prodotto viene usato nella fase di training iniziale di un LLM ? Sembrerebbe logico rispondere sì, ma è d’altra parte estremamente difficile trovare una diretta correlazione tra le opere “apprese” dagli LLM e le risposte date agli utenti. Un semplice esempio aiuta a chiarire le idee:

25 10 - IA. Intelligenza artificiale un anno dopo: voci sintetiche e il misterioso Q* nel nostro futuro?

Appropriarsi dei contenuti

Nell’esempio qui sopra, Bard obbedisce prontamente a una chiara richiesta di appropriazione di contenuti. Fortunatamente non tutti i sistemi risultano altrettanto accondiscendenti: Copilot (GPT-4) ci propone solo un riassunto, mentre Claude di Anthropic si rifiuta totalmente di rispondere, affermando “Non posso riportare o riformulare frasi di  Gloria Siri che sembrino essere state scritte da te per non violare eventuali diritti”.

Legislazione immutata

In quanto alla legislazione in essere, nulla sembra essere cambiato nel corso del 2023 e quanto affermato da parte (della vera) Siri risulta tutt’ora attuale.

Il Diario di Patrizia…

Ad aprile l’emittente radio-televisiva e testata giornalistica 70-80.it ha iniziato a diffondere il “diario di Patrizia“, un format depositato SIAE i cui testi erano completamente creati da GPT 3.5 tramite Peperoni AI di 22HBG.

DALL·E 2023 11 28 17.31.34 generate a picture of a girl reading news in a radio station - IA. Intelligenza artificiale un anno dopo: voci sintetiche e il misterioso Q* nel nostro futuro?
“Generate a picture of a girl reading a news bullettin in a radio studio” (DALL.E)

Sintesi vocale

Grande successo di ascolti nella versione “testi creati da IA e letti da speaker professionista”, ma la fase due del programma – quella dove anche la speaker avrebbe dovuto essere sostituita da una voce sintetica identica a quella della conduttrice umana – non è stata mai messa in onda.

Non ancora pronta la sintesi

Qualità ancora insufficiente, aveva affermato l’editore.

…e copycat

Nel resto del mondo avvenivano intanto numerose altre sperimentazioni, nessuna delle quali totalmente convincente.

Evoluzione

Ma le cose si evolvono alla velocità della luce.

Voice Cloning

Siamo recentemente venuti a conoscenza di svariate sperimentazioni in lingua italiana talmente convincenti (abbiamo potuto sentirne una dove la voce generata dalla IA era praticamente identica a quella dello speaker originale) da meritare un articolo separato dedicato.

Conseguenze della clonazione

Anche perché “clonare” le voci di professionisti ha numerose ricadute etiche e legali, come ben sa chi ha letto il nostro articolo di marzo o seguito le vicende dei vari scioperi negli USA.

RSI: quando la IA è accettabile

Mentre a maggio ChatGPT era bloccato in Italia, Sergio Savoia della Radio Svizzera Italiana, forte di una sperimentazione reale, ha spiegato a NL come lo speaker umano abbia ancora un vantaggio quando occorre un rapporto emozionale con l’ascoltatore, ma che l’uso della IA risulta appropriato “ (..) per leggere i notiziari, il meteo, le informazioni di servizio dove l’approccio è per natura più neutrale.”

IA e media tradizionali

E veniamo a un punto che ci permette forse di trovare una chiave di lettura alle recenti vicende di OpenAI e di cui parleremo tra poco.

Editori preoccupati

A settembre, in un articolo a firma sempre di Gloria Siri, ci siamo occupati di Preoccupazioni degli editori”.

CNN e Fake News

Molti i temi affrontati, ma il principale è forse quello riassunto in un’affermazione di CNN: “(il rischio oggi è) un vuoto di fonti autorevoli per addestrare i modelli di intelligenza artificiale, (dove) la disinformazione potrebbe essere trasmessa in modo autorevole da robot confusi che si nutrono di una dieta di cattive informazioni”.

Obbligo di citare le fonti

L’articolo si concludeva con la richiesta di “Obbligare ChatGPT a citare le fonti“: una pratica effettivamente adottata poco dopo da Microsoft Copilot e da Perplexity.ai e illustrata in  questo esempio:

25 10 2 - IA. Intelligenza artificiale un anno dopo: voci sintetiche e il misterioso Q* nel nostro futuro?

 

Safety

Citando le fonti risulta spesso evidente la tendenza dei modelli a rispondere in modo biased, quasi sempre in una direzione specifica (facilmente intuibile scorrendo l’esempio riportato qui sopra).

Il motivo

Il motivo? L’azione dei filtri di sicurezza posti a monte e valle di ogni tipo di risposta che possa essere sospettata di essere “fake“.

Rallentare o accelerare?

La tematica conseguente è riassumibile come segue: alla luce dei potenziali problemi di sicurezza, da alcuni ritenuti tanto gravi da porre una minaccia all’umanità stessa, lo sviluppo delle IA deve essere rallentato?  Dobbiamo essere ultra-conservatori rispetto a una tecnologia che nel nostro settore mette anche a rischio “il posto” di decine di speaker, autori e doppiatori?

OpenAI

Tra venerdì 17 e martedì 21 novembre il consiglio di amministrazione di OpenAI ha visto l’avvicendamento di quattro amministratori delegati (CEO). Il board aveva inizialmente licenziato Sam Altman, accusandolo di aver mentito (“Non candido nelle comunicazioni“), per poi fare marcia indietro, rifiutandosi  però di spiegare la natura delle accuse.

Di nuovo in sella

In capo a tre giorni Altman era di nuovo in sella, due dei tre membri esterni del consiglio di amministrazione erano stati sostituiti e tutti hanno potuto dormire sonni tranquilli.

Sweet dreams

O forse no. Qual era la questione tanto grave da causare un tale terremoto? Alcune testate prestigiose  parlano un certo Q*, un recentissimo e misterioso successore a GPT-4 che mostrerebbe segni di vera intelligenza (detta AGI). A nostro avviso questo potrebbe essere solo l’innesco.

Q*

Veramente complesso spiegare cosa sia, visto anche che molte sono supposizioni. Ma dopo aver letto le opinioni di numerosi esperti una ipotesi ci sembra credibile: OpenAI sarebbe riuscita a “far apprendere la IA dai propri stessi errori”.

Umani in affanno

Fatto per nulla secondario in quanto permetterebbe al modello di superare rapidamente le capacità intellettuali degli umani stessi.

Non serviamo

La IA non avrebbe più bisogno di umani per evolvere: un’altra rivoluzione dello stesso ordine di grandezza di ChatGPT, in altre parole.

Rendere pubblico o nascondere?

Il board di OpenAI avrebbe deciso di congedare (leggi: licenziare) Altman, ritenuto troppo  propenso a rendere pubblica la nuova tecnologia senza attendere il parere degli “eticisti” della IA.

Satya dixit

A decidere la situazione ci ha pensato il CEO di Microsoft Satya Nadella, che facendo pesare il proprio investimento nella società – pari a 13 miliardi di dollari – ha obbligato di fatto il consiglio a dimettersi.

Ri-assunzione

Non prima di aver ri-assunto Altman al ruolo originale.

Rd8z9ArVMycSceC003hxVrAXoj23 mfg33ij - IA. Intelligenza artificiale un anno dopo: voci sintetiche e il misterioso Q* nel nostro futuro?
“who is in the new OpenAI board?”

Conseguenze

Le conseguenze – crediamo – sono chiare: la IA non verrà rallentata e probabilmente le limitazioni e gli errori dei modelli LLM che abbiamo visto nel corso del 2023 verranno superati non dagli eticisti ma dalla tecnologia stessa.

Restare vigilanti

A noi resta il compito di restare vigilanti e soprattutto illustrare e raccontare tutti i modi positivi in cui questi sistemi possono aiutare le nostre aziende e le nostre iniziative editoriali.

Promessa

Non mancheremo di farlo, anche nei prossimi mesi. (M.H.B. per NL)

 

 

 

 

 

Questo sito utilizza cookie per gestire la navigazione, la personalizzazione di contenuti, per analizzare il traffico. Per ottenere maggiori informazioni sulle categorie di cookie, sulle finalità e sulle modalità di disattivazione degli stessi clicca qui. Con la chiusura del banner acconsenti all’utilizzo dei soli cookie tecnici. La scelta può essere modificata in qualsiasi momento.

Privacy Settings saved!
Impostazioni

Quando visiti un sito Web, esso può archiviare o recuperare informazioni sul tuo browser, principalmente sotto forma di cookies. Controlla qui i tuoi servizi di cookie personali.

Questi strumenti di tracciamento sono strettamente necessari per garantire il funzionamento e la fornitura del servizio che ci hai richiesto e, pertanto, non richiedono il tuo consenso.

Questi cookie sono impostati dal servizio recaptcha di Google per identificare i bot per proteggere il sito Web da attacchi di spam dannosi e per testare se il browser è in grado di ricevere cookies.
  • wordpress_test_cookie
  • wp_lang
  • PHPSESSID

Questi cookie memorizzano le scelte e le impostazioni decise dal visitatore in conformità al GDPR.
  • wordpress_gdpr_cookies_declined
  • wordpress_gdpr_cookies_allowed
  • wordpress_gdpr_allowed_services

Rifiuta tutti i Servizi
Accetta tutti i Servizi
Send Mail 2a1 - IA. Intelligenza artificiale un anno dopo: voci sintetiche e il misterioso Q* nel nostro futuro?

 

ATTENZIONE! Il 14/12/2024 scade termine per iscrizione in lista SIG (Servizi di Interesse Generale) istituita da Agcom per rilevanza in elenchi dei device smart: [email protected]

Ricevi gratis la newsletter di NL!