La famosa piattaforma di streaming on line si sta muovendo per arginare il delicato problema dei contenuti video inadatti ai bambini.
Sono presenti su YouTube numerosissimi filmati violenti, impressionanti e volgari, certamente inappropriati al piccolo pubblico per il quale sarebbero destinati. Si tratta di filmati apparentemente rivolti ai bambini, in quanto contenenti personaggi animati famosi o rintracciabili con parole chiave generalmente utilizzate nella ricerca di video per minori, ma dai contenuti assolutamente inadatti. Questo fenomeno, oltre a costituire un significativo problema per gli utenti (si pensi al fatto che la riproduzione automatica, proponendo contenuti simili, può facilmente reperire anche video di questo tipo), rappresenta un punto critico anche per gli inserzionisti, i quali possono vedere apparire la propria pubblicità in contenuti deplorevoli, con un significativo danno di immagine.
In conseguenza di ciò, alcuni importanti brand – come Adidas, Lidl e Mars – hanno deciso di sospendere le campagne pubblicitarie sulla piattaforma in attesa di maggiori controlli e garanzie affinché i video pubblicati siano conformi al pubblico cui sono indirizzati e rispecchino, inoltre, la politica e i valori dei vari marchi.
Con un post del 04/12/2017 sul blog ufficiale, Susan Wojcicki, Ceo di YouTube, si è espressa su questo delicato problema, guardando alla soluzione: “i revisori umani rimangono essenziali sia per rimuovere i contenuti, sia per addestrare i sistemi di machine learning perché il giudizio umano è essenziale per prendere decisioni che tengano conto del contesto di ogni contenuto”. Prosegue sottolineando, da un lato, come i sistemi di machine learning costituiscano un contributo fondamentale nell’azione volta al controllo dei contenuti e dei commenti; dall’altro lato, come sia comunque indispensabile l’intervento di soggetti incaricati a questo delicato compito. È previsto, infatti, per il 2018 un incremento del numero dei revisori che lavoreranno in Google per indirizzare i contenuti che potrebbero violare le norme del gruppo; tale team arriverà a quota 10.000 soggetti coinvolti.
Inoltre, il Ceo ha voluto sottolineare i risultati finora raggiunti in questa lotta ai contenuti inappropriati: da giugno, grazie al sistema di machine learning, sono stati rimossi più di 150.000 video per estremismo violento. Questa modalità, tramite algoritmi, riesce a rilevare il 98% dei filmati con tale criticità, i quali vengono flaggati dal sistema e rimossi (il 70% di video di estremismo violento viene rimosso entro 8 ore, mentre circa il 50% in 2 ore).
A seguito di questi risultati positivi, il gruppo guidato da Susan Wojcicki ha cominciato ad addestrare la tecnologia di machine learning su altre aree problematiche, al fine di tutelare i bambini e combattere l’istigazione allodio.
Nel post è stata poi affrontata la tematica della brand safety: YouTube sta agendo, tramite le varie modalità sopra riportate, anche per proteggere gli inserzionisti da contenuti inappropriati, in modo da garantire che le varie pubblicità scorrano su video che rispecchino i valori dei brand.
Nonostante le rassicurazioni del gruppo, è fondamentale che quanto detto non rimanga solo una “lettera di intenti”, ma che venga seguita da una reale opera nel vastissimo mondo della piattaforma di video; il tutto anche per riportare i grandi brand che sono fuggiti da questa situazione apparentemente fuori controllo. (G.C. per NL)