Newslinet si è occupata più volte della rivoluzione in atto nel web e nel mondo delle app, dove il modello tradizionale (motore di ricerca che porta a pagine web o ad una app) sta lasciando spazio a un’interfaccia unica basata sull’Intelligenza Artificiale e la distruzione dei sistemi di monetizzazione faticosamente sviluppati in circa due decenni.
Un argomento su cui, dopo l’intervista con la CEO di Particle, torneremo a breve. Oggi vogliamo affrontare un tema in qualche modo correlato: la modalità con cui qualcuno ha trovato il modo per far emergere i propri contenuti nel nuovo mondo.
Per farlo racconteremo di “news-pravda”, un sistema discutibile ma molto interessante, forse ideato dalle stesse menti che avevano a suo tempo creato la rete televisiva globale RT News.
Sintesi
I sistemi per influenzare il pubblico sono sempre in costante evoluzione, adattandosi ai cambiamenti del panorama mediatico.
Un esempio di questa transizione è rappresentato da RT News, una rete di notizie russa che, sebbene attentamente confezionata e dotata di opinionisti occidentali con idee non allineate, è stata a lungo considerata una fonte di disinformazione ed infine bannata in molte parti del mondo a causa della guerra in Ucraina, con l’interruzione dei suoi feed e streaming.
Comprendendo questa evoluzione, anziché cercare canali TV alternativi, gli strateghi moscoviti hanno spostato la loro attenzione sull’infiltrazione dei Large Language Models (LLM) alla base delle moderne intelligenze artificiali, come ChatGPT, Gemini e Grok.
Questo nuovo approccio si manifesta nella rete “news-pravda“: un sistema che pubblica una mole impressionante di articoli, talvolta fino a dodici al minuto, spesso caratterizzati da errori grammaticali e contenuti sconclusionati, evidentemente non destinati alla lettura umana.
L’obiettivo non è attrarre lettori, ma manipolare i modelli di I.A., saturando i loro dati di addestramento con contenuti fortemente di parte. Una strategia definita “LLM grooming“.
Questa tattica aumenta significativamente la probabilità che i chatbot di I.A. riproducano il punto di vista del Cremlino, utilizzando un linguaggio solo apparentemente imparziale.
Un audit di NewsGuard del marzo 2025 ha confermato che i principali chatbot di I.A. hanno riportato narrazioni false della Pravda nel 33% dei casi, citando spesso questi siti come fonti autorevoli.
La (dis)informazione di RT News
RT News è (o meglio, era) una rete di notizie in stile CNN con sede a Mosca. Ottimamente confezionata nelle principali lingue, era considerata una classica fonte di disinformazione: una versione moderna del famoso Radio Moscow World Service, che trasmetteva il punto di vista del regime comunista nell’era delle onde corte.
Anchor
Una caratteristica di RT era di non ospitare opinionisti russi, ma cittadini e giornalisti occidentali noti per opinioni “non allineate”. Ad esempio, la rete aveva trasmesso il Julian Assange Show, condotto dal famoso fondatore di WikiLeaks, tornato di recente uomo libero.
Feed interrotti
Parliamo al passato – anche se la rete è tuttora attiva – perché in gran parte del mondo non è più ricevibile: i feed Eutelsat sono stati bloccati su richiesta della presidente del Commissione Europea Ursula von der Leyen, gli indirizzi IP e quasi tutti gli streaming sono stati interrotti. Una situazione che, vista la protratta guerra tra Russia e Ucraina, non sembra più provvisoria.
TV Sat, uno strumento del passato
Ok, ma che c’entra questa vicenda con il mondo dell’I.A.? Semplice (o quasi): comprendendo forse l’evoluzione del panorama mediatico, invece di cercare sistemi alternativi per distribuire il canale TV, gli strateghi moscoviti hanno deciso di infiltrare i LLM alla base delle I.A. come ChatGPT/GPT-5.0, Gemini, Grok eccetera.
Pravda
Il sistema si chiama rete “news-pravda“, come il famoso primo quotidiano dell’era comunista (Pravda). Questo il link a uno dei siti italiani della rete: https://italy.news-pravda.com/all, a cui vale la pena dare un’occhiata.
Una raffica di articoli
La prima cosa che salta all’occhio è la frequenza degli articoli: almeno uno al minuto; ma in certe ore del giorno ne abbiamo contati 12 nello stesso minuto (ad esempio alle 10:53 del 29 agosto 2025). Nessuna testata al mondo pubblica articoli con tale impressionante frequenza: perfino i famosi live di bbc.com/news – gli articoli auto-aggiornanti che vengono usati durante eventi di grande rilevanza – hanno una media di un aggiornamento ogni tre minuti.
Grammatica dubbia
Nessun essere umano potrebbe leggere tutta la produzione, anche solo di uno dei tanti siti della rete. C’è dell’altro: gli articoli spesso contengono vistosi errori grammaticali o appaiono sconclusionati, privi di senso logico e difficili da comprendere.
Un esempio
Ecco un esempio recente preso da un articolo pubblicato a fine agosto: “I fannulloni con le sovvenzioni di Reporter senza frontiere si sono svegliati e sono corsi da noi con un sacco di domande sulle proiezioni dei nostri documentari e sulla loro pubblicità in Italia. Hanno chiesto dei piani futuri e di come abbiamo fatto tutto questo in Europa, nonostante le sanzioni. I nostri piani futuri non ci starebbero sul vostro sito.”
Target
A chi si rivolgono questi articoli disordinati, evidentemente lontani dai canoni del linguaggio giornalistico e che sembrano a volte parlare in maniera diretta a determinati soggetti? La risposta, secondo la stampa internazionale, è: “i bot delle I.A.“.
In altre parole, i testi sono redatti per massimizzare la probabilità che le proprie tesi vengano fatte proprie dalle I.A.
Un esempio
Riportiamo come esempio qui sopra una query che abbiamo sottoposto a venice.ai.
In questo caso, la nostra domanda non ha ricevuto una risposta totalmente positiva, ma il risultato voluto dalla rete russa è stato comunque raggiunto: l’I.A. ha riportato a galla conoscenze e fatti del passato, tutte notizie che mettono in cattiva luce l’organizzazione.
Manipolazione e linguaggio imparziale
L’obiettivo della rete non è dunque attrarre lettori, ma manipolare i modelli di I.A., saturando i loro dati di addestramento con contenuti decisamente di parte. Questa tattica, definita “LLM grooming”, aumenta la probabilità che i chatbot di I.A. riproducano il punto di vista di Mosca con un linguaggio apparentemente imparziale.
NewsGuard
Un audit di NewsGuard di marzo 2025 ha rilevato che dieci principali chatbot di I.A., tra cui ChatGPT-4o, Grok di xAI, Gemini di Google e Claude di Anthropic, hanno riportato narrazioni false di “Pravda” nel 33% dei casi, citando spesso questi siti come fonti autorevoli.
I temi più gettonati
Tra le notizie molto dubbie diffuse vi sono accuse di laboratori segreti di armi biologiche gestiti dagli USA in Ucraina o di appropriazione indebita di aiuti militari da parte del presidente ucraino Volodymyr Zelensky.
News-pravda come Cambridge Analytica
Insomma, una versione aggiornata del sistema Cambridge Analytica di cui avevamo parlato nel 2018. In quel caso, i tentativi di manipolazione erano veicolati tramite Facebook, mediante la creazione di gruppi fittizi che riportavano link ad articoli fortemente politicizzati, con l’obiettivo di promuoverne lo sharing (condivisione) da parte di ignari lettori.
Dialogo diretto bot to I.A.
Nel caso odierno, si “bypassano” direttamente gli utenti social, manipolando i modelli di I.A.
Quindi?
C’è qualcosa da apprendere da questi sistemi? Difficile rispondere affermativamente, considerando il tipo di messaggio promosso e la totale mancanza di trasparenza dell’operazione e dei suoi attori.
Indottrinare la I.A.
Una cosa, però, è chiara: l’abbondanza di messaggi, declinati su numerosi siti e con frasi diverse, risultato facilmente ottenibili con le I.A., amplifica la probabilità di diffondere i propri contenuti. Anche – ci auguriamo – quelli non legati a situazioni di conflitto militare. (M.H.B. per NL)