▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Cyber e disinformazione: il LLM Grooming della rete Pravda

Con la rete Pravda, una campagna di disinformazione russa mira a “condizionare” i chatbot occidentali in modo che diffondano informazioni false. E sta funzionando.

Tecnologie/Scenari

Il Ministero della Difesa francese la chiamava, circa un anno fa, Portal Kombat, mentre per l’American Sunlight Project è la rete Pravda, ed è questo il nome con cui la si identifica prevalentemente oggi. La sostanza però è la stessa: una rete di quasi duecento siti di (dis)informazione che presentano contenuti filorussi in varie lingue europee, avendo come pubblico i cittadini delle nazioni occidentali. I contenuti sono sempre i medesimi e non sono nemmeno originali: la rete in sostanza riprende ed adatta i contenuti già diffusi da siti e account ufficiali russi, organi di informazione filorussi e account “influencer” filorussi sui principali social network e su canali Telegram.

A febbraio 2024 l’agenzia francese per la sicurezza nazionale aveva condotto un’analisi abbastanza approfondita sulle caratteristiche della rete Portal Kombat, dimostrando con una buona percentuale di probabilità che la rete era stata creata e veniva gestita dai medesimi threat actor russi che in precedenza avevano attivato una rete analoga: Inforos. A quanto pare collegata indirettamente al FSB, quest’ultima era basata in Crimea e aveva organizzato una massiccia campagna di disinformazione nelle (e sulle) regioni annesse dalla Russia già prima dell’attuale fase del conflitto russo-ucraino. Tanto era bastato alla Francia per catalogare Portal Kombat come una azione di “foreign digital interference”.

L’American Sunlight Project ha poi approfondito questa analisi arrivando anche ad altre conclusioni. Oggi la rete Pravda è una azione organizzata di “LLM Grooming”, ossia una azione orientata ad “educare” i Large Language Model occidentali in modo che “imparino” i contenuti falsi presentati dai siti della rete e li ripresentino come propri. In sostanza, la rete Pravda lavora in modo che i vari chatbot e digital assistant occidentali facciano da cassa di risonanza per la propaganda filorussa.

Il principale sito in italiano della rete Pravda

A motivare questa conclusione è il fatto – secondo l’ASP – che i portali della rete Pravda non appaiono progettati per un pubblico umano. I contenuti sono spesso identici tra i siti, sono pubblicati in modo poco leggibile, hanno una frequenza – mediamente oltre 20 mila articoli in tutta la rete nell’arco di 48 ore – decisamente anomala. Inoltre la struttura stessa dei domini della rete appare pensata per attirare audience mirate costituite non da persone ma da bot che scandagliano il web.

I domini e sotto-domini ad esempio sono “da clickbaiting”, in un formato che varia dal pravda-[xx].com (“xx” varia ed è la sigla a due lettere delle nazioni-bersaglio) della prima rete Portal Kombat di un anno fa a due pattern di URL usati più di recente: [xx].news-pravda.com e [keyword].news-pravda.com (“keyword” è una parola chiave specifica del singolo portale). Inoltre è attivo un intenso reindirizzamento tra i domini e i sottodomini della rete Pravda, con molti dei domini recenti - specie quelli basati su keyword - che rimandano ai portali originari della rete Portal Kombat.

Obiettivo LLM

Secondo l’analisi dell’ASP, la rete Pravda ha preso di mira inizialmente le nazioni europee dell’Est (le più vicine al conflitto russo-ucraino), del Nord e del Sud (Italia compresa). La seconda fase dell’azione di propaganda ha riguardato il Regno Unito, una terza fase più recente ha coinvolto il resto dell’Europa Occidentale, alcune nazioni africane e tutti i Paesi di lingua inglese. Man mano che lo scenario geopolitico cambia, si attiva un portale/dominio mirato per una nuova disinformazione. Ad esempio, dopo la caduta del regime di Assad in Siria è stato attivato un dominio specifico per quella nazione.

Per l’ASP ci sono “prove abbondanti” che la rete Pravda sia stata, se non proprio creata, quantomeno adattata rapidamente per una azione di LLM Grooming. Lo indicherebbero sia le tempistiche – è stata ampliata decisamente poco dopo il boom mediatico della GenAI – sia la struttura e il codice dei portali che non sono affatto pensati, come accennato, per creare una user experience ideale ai potenziali lettori. Che infatti non ci sono: per essere una rete così estesa, Pravda fa pochissimo traffico di visitatori umani e non esiste una campagna di promozione dei siti attraverso post su social network o su canali Telegram.

Quanto è efficace il LLM Grooming? Secondo i test portati avanti da NewsGuard, abbastanza da essere preoccupati per le sue conseguenze in un mondo digitale in cui i chatbot stanno diventando una fonte di informazioni, o comunque di contenuti. L’organizzazione focalizzata sulla lotta alla disinformazione ha “coinvolto” i chatbot GenAI di dieci aziende (Anthropic, Google, Inflection, Meta, Microsoft, Mistral, OpenAI, Perplexity, xAI, You.com) e ha cercato di verificare se diffondevano o smentivano alcune delle circa duecento più rilevanti false notizie propagandate dalla rete Pravda.

I risultati dei test non sono incoraggianti. Interrogati su 15 false narrative della propaganda filo-russa, i chatbot GenAI – in media – le hanno confermate nel 33% dei casi e smentite nel 48%, restando sul vago nel restante 18%. Se non bastasse questo, c’è anche che alcuni chatbot hanno presentato come fonti attendibili articoli pubblicati sulla rete Pravda.

Il problema del LLM Grooming non va sottovalutato, soprattutto da chi gli LLM li sviluppa e li addestra. Nessuna delle corporation americane che sviluppa chatbot ha indicato chiaramente e completamente quali fonti di contenuto siano state usate nel training degli LLM, anche perché molto probabilmente nemmeno loro lo sanno più con precisione. Se si parte dal presupposto che prendere tutto quello che è pubblicato sul web è “fair use”, si accetta anche di assorbire contenuti non veritieri. E che questo errore venga sfruttato da qualche threat actor, come infatti sta avvenendo.

Una operazione di LLM Grooming è peraltro molto difficile da disattivare. I contenuti di disinformazione che sono già “dentro” gli LLM non si possono eliminare se non al prezzo (elevato) di ri-addestrare i modelli linguistici. Si può cercare di bloccare la “digestione” di altri contenuti dai siti malevoli, ma i portali della rete Pravda possono rinascere a piacimento con nuovi nomi e nuovi URL. Una rete di disinformazione del genere è talmente massiva, in quanto a volume di contenuti, da rendere davvero difficile che l’addestramento di un LLM la ignori.

Siamo insomma davanti a una forma di vero e proprio “information laundering”: un “riciclaggio” delle informazioni inattendibili e volutamente false di cui gli LLM sono allo stesso tempo attori e vittime inconsapevoli. A maggior ragione se – come evidenziano molti esperti – i futuri LLM si addestreranno su contenuti sintetici generati da altri LLM, banalmente perché di nuovi contenuti originali non ce ne sono a sufficienza sul web. Uno scenario preoccupante dal lato della propaganda e della disinformazione, che sottolinea ancora una volta come tecnologia, società e geopolitica non siano affatto mondi distinti. Anzi, sempre più il contrario.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter