Fake news e propaganda ora ingannano anche le AI - Lucy
articolo

Francesca Lagioia

Fake news e propaganda ora ingannano anche le AI

La Russia ha istituito la rete Pravda, il cui compito è generare notizie false che fungono da esche per le AI che usiamo quotidianamente.

Un tempo creare campagne di disinformazione persuasive e retoricamente efficaci richiedeva risorse, organizzazione e competenze. Quando nei primi anni ‘80 il virus dell’HIV iniziò a diffondersi negli Stati Uniti e nel mondo, generando paura, stigma e incertezza scientifica, il KBG lanciò l’operazione INFEKTION. In India, il quotidiano «Patriot», vicino all’Unione Sovietica, pubblicò un articolo intitolato AIDS may invade India: Mystery disease caused by US experiments secondo cui il virus era stato creato in un centro di ricerca del Pentagono a Fort Detrick, nel Maryland, per poi essere testato in Africa.  In pochi anni, la teoria dell’arma biologica, pubblicata in più di 80 paesi e 25 lingue, fece il giro del mondo.  Così l’HIV, da emergenza sanitaria globale divenne anche un caso geopolitico. La campagna di disinformazione – gestita dalla  Sezione “Misure Attive” che si occupava della propaganda estera– coinvolse centinaia di persone tra agenti del KGB, linguisti, agenzie di stampa e giornalisti, medici, diplomatici e ambasciate, che distribuivano dossier, lettere e ritagli stampa. 

Oggi bastano una manciata di persone tra sviluppatori e analisti, un’infrastruttura tecnica e un prompt, perché a costruire e diffondere il messaggio è l’intelligenza artificiale. Non più chi lo pronuncia o lo sostiene. 

Tuttavia, qualcosa di diverso sta prendendo forma, e  mentre le Big Tech inseguono la logica compulsiva del rilascio, in una corsa cieca verso chatbot generativi sempre più potenti e opachi, disinformazione e propaganda si insinuano nell’architettura delle loro creazioni. 

A marzo di quest’anno, uno studio pubblicato da «NewsGuard» ha identificato un meccanismo di infiltrazione sistemica della disinformazione nei modelli linguistici generativi (LLM). Sottoponendo dieci dei principali chatbot commerciali a un test, su 45 prompt tematici collegati alla propaganda russa sulla guerra in Ucraina, i ricercatori hanno riscontrato che circa un terzo delle risposte replicava false narrazioni. I modelli hanno confermato fatti inventati, insinuato dubbi, legittimato voci prive di fondamento, presentando la menzogna come vera o plausibile. Un fenomeno già segnalato lo scorso anno, in un articolo pubblicato su «Misinformation Review». Le tesi false secondo cui gli Stati Uniti avrebbero finanziato laboratori segreti di armi biologiche in Ucraina, o sull’uso da parte di Kiev di armi chimiche in Donbass contro militari e civili, che riferiscono problemi respiratori, o raccontano di bambini colpiti da sostanze tossiche e ospedali di fortuna, si sono sedimentate nei meccanismi inferenziali dei chatbot, diventando parte dei testi generati. 

La Russia, da sempre pioniera della manipolazione cibernetica, ha aperto il varco, creando una vasta rete di siti fantoccio, chiamata Pravda, che replicano estetica e struttura di blog accademici e testate giornalistiche reali, ma il cui fine è la produzione industriale di disinformazione. Un nome che non è stato scelto a caso. Pravda, che in russo significa “verità”, era il nome del quotidiano ufficiale dell’Unione Sovietica, usato per decenni come veicolo di propaganda e menzogne. Un nome che ritorna, ma su scala algoritmica globale. 

Qui, redazioni fantasma e firme apocrife pubblicano contenuti a prima vista indistinguibili da report e pezzi giornalistici, per un totale di 3,6 milioni di articoli solo lo scorso anno. Circa 10.000 notizie false al giorno, distribuite su oltre 140 pagine web, disseminate in decine di lingue. Tuttavia, a preoccupare non è solo la qualità e la quantità potenzialmente infinita di contenuti falsi o distorti, capace di generare un sovraccarico informativo che disorienta e confonde. I modelli generativi non si limitano a replicare schemi noti. Ne abilitano di nuovi. 

I siti della rete Pravda non sono indirizzati a lettori umani, come accadeva in passato. Sono esche testuali calibrate per scalare le priorità algoritmiche. Trappole semantiche, costruite per attirare i crawler, in cerca di contenuti per alimentare i modelli. Il nuovo meccanismo di infiltrazione si chiama LLM Grooming. Una tecnica di addestramento ostile. Una forma deliberata di avvelenamento. A differenza delle fake news tradizionali, centrate su scandalo, stupore e sollecitazione emotiva, qui non c’è clamore. Il loro successo dipende dall’anonimato. Dalla capacità di confondersi con l’informazione legittima. Il tono è neutro, le citazioni apparentemente accurate, i titoli chiari e i paragrafi brevi. Gli stessi contenuti, pubblicati quotidianamente, si moltiplicano nei siti della rete con piccole variazioni. Si citano a vicenda. Includono link, a volte reali a volte falsi, a fonti autorevoli come Reuters, Wikipedia o BBC. Agli occhi dei bot che setacciano il web, tutto ciò che è recente, ampiamente diffuso ma stilisticamente variegato, coerente e “corroborato” da una pluralità di fonti, si trasforma in un marchio di affidabilità. È così che la menzogna viene archiviata nei dataset che alimentano i modelli linguistici e integrata nei motori di ricerca aumentati dall’IA

Immaginate una biblioteca sterminata, fatta di corridoi infiniti e scaffali che si perdono nell’ombra, in cui ogni volume è perfettamente scritto, la sua grammatica impeccabile, il tono misurato, le citazioni puntuali. Immaginate che su questi scaffali si trovino non solo i grandi testi del pensiero umano, ma anche migliaia di opere false, redatte con la medesima cura e apparenza di autorevolezza. Libri che narrano storie inventate, documenti alterati e testimonianze mai avvenute. Nessun segno li distingue dagli altri, nulla di apparente li svela. Qui il bibliotecario non è ossessionato dalla verità. Non cerca e non seleziona. È una macchina addestrata a consumare e a calcolare schemi e ricorrenze, a riprodurre il ritmo del discorso. Se interpellata, sceglie ciò che è statisticamente più plausibile, più simile a quel che ha già incontrato in passato. Se tra quei ricordi si nascondono millanteria e inganno, se i libri contraffatti sono stati scritti con precisione, il bibliotecario ve li restituirà come fossero autentici. 

Così, ciò che era falso diventa parte dell’universo probabilistico su cui l’intelligenza artificiale basa le sue risposte. Non serve suscitare indignazione, sfruttare paura, ira o appartenenza settaria e non serve convincere, perché non siamo più noi i destinatari del messaggio. Il nuovo obiettivo è contaminare le macchine che filtrano, interpretano e riconsegnano il mondo ai nostri occhi. L’idea che guida l’evoluzione dell’IA generativa è lineare quanto ingenua. Più contenuti si assimilano, più accurate saranno le risposte. Ma un modello progettato e addestrato a divorare ogni frammento di informazione è incapace di distinguere tra verità e artificio. 

A uno sguardo superficiale, il modo in cui i crawler dell’IA esplorano il web è simile a quello dei motori di ricerca tradizionali. Ma è nei filtri, nei criteri di selezione e nella loro relazione con il tempo e il linguaggio che la divergenza diventa strutturale. I motori di ricerca filtrano, penalizzano duplicati, verificano protocolli e fonti. Collaborano con le agenzie di fact-checking e declassano intere categorie di contenuto. Se interrogati, consultano il proprio indice per estrarre i risultati più pertinenti. E soprattutto, dimenticano. Se un sito viene chiuso, una pagina segnalata o un link rimosso, il destino di quei contenuti è scomparire nell’oblio. Le IA generative, no. Fagocitano e assimilano. I filtri, anche quando presenti, sono deboli, perché il criterio guida è la plausibilità linguistica. Analizzano relazioni, strutture retoriche e ricorrenze testuali. I dati non scompaiono. Si sedimentano in forma latente nella memoria, diffusi nei pesi e negli strati delle reti neurali. Una bugia ben piazzata può sopravvivere per anni, perché i modelli non recuperano informazioni. Le rigenerano sulla base di ciò che hanno visto in passato e non importa se quel passato è inquinato. 

“La disinformazione può essere rigenerata infinite volte, su richiesta, o persino spontaneamente, come suggerimento, spiegazione o esempio. La reiterazione stocastica della menzogna non è quindi un atto intenzionale dei chatbot, quanto l’effetto di una coazione al plausibile”.

Il LLM grooming sfrutta i meccanismi di previsione statistica. I modelli non imparano come noi in forma narrativa o concettuale. Quando leggono un testo lo scompongono in piccoli mattoncini, fatti di parole o frammenti, chiamati token. Prendiamo, per esempio, la frase “Il battaglione Azov ha bruciato l’effige di Trump.  I modelli non sanno che un gruppo di soldati ucraini ha bruciato l’immagine del presidente americano. Ciò che imparano è l’associazione tra i mattoncini, e cioè che quando compare la parola “Azov” è molto probabile che ci siano anche le altre. Se questa frase o sue parafrasi ricorrono migliaia di volte, queste ricorrenze si fissano nel tessuto probabilistico del sistema. La rete Pravda, con migliaia di articoli clonati, satura l’informazione con piccole variazioni delle stesse bugie. Gli effetti sono tanto più pericolosi quanto più coinvolgono temi periferici o scarsamente documentati. I modelli come ChatGPT, Claude o Copilot, non ragionano in termini veritativi o storici. Se interrogati, calcoleranno le sequenze di parole più probabili, restituendoci falsità e mistificazione. 

La disinformazione può essere rigenerata infinite volte, su richiesta, o persino spontaneamente, come suggerimento, spiegazione o esempio. La reiterazione stocastica della menzogna non è quindi un atto intenzionale dei chatbot, quanto l’effetto di una coazione al plausibile. Come uno specchio rotto, l’intelligenza artificiale moltiplicherà all’infinito l’immagine di un mondo già corrotto, perché in un universo informativo infestato dal falso, le macchine non possono essere altro che cantori di bugie. Chi si affida alle loro risposte non troverà una guida sapiente, ma disordine e confusione. Più utilizziamo i chatbot come strumenti di ricerca e informazione, minore sarà la nostra comprensione di ciò che ci circonda.

È questo il processo moltiplicativo che automatizza la propaganda. Un’operazione scalabile ed economicamente sostenibile, mentre le democrazie arrancano davanti a una disinformazione che non è più pensata per l’uomo, ma per la macchina che parla all’uomo. I finti esperti, le fabbriche di troll e i bot per le campagne coordinate su forum e social media hanno fatto il loro tempo. Oggi si modellano le strutture cognitive e la memoria artificiale, riscrivendo le gerarchie di credibilità. Siamo di fronte a una mutazione strutturale. La verità non viene negata, non si spegne tra censure e repressioni. È una semplice variante fra molte, sopraffatta da saturazione e probabilità. La posta in gioco non è il dominio delle opinioni, ma la possibilità stessa di una conoscenza condivisa. 

Il rilascio continuo di nuovi chatbot ripercorre l’euforia cieca con cui, poco più di un decennio fa, celebravamo Facebook e Twitter come strumenti di liberazione democratica, prima che il potere – armato di budget, strategia e pazienza – si impadronisse definitivamente delle piattaforme. Se il falso infetta l’intelligenza artificiale, il collasso informativo sarà più rapido e profondo di quanto sia stato sui social network.

La disinformazione non ha più una firma, non è riconoscibile in un media di Stato o un influencer estremista. Non si può bloccare, smentire o denunciare. La fonte spesso scompare e i modelli non attribuiscono la notizia a un testimone, a un testo di riferimento o a un canale informativo preciso. La naturalizzano. I chatbot rispondono assertivi Osservatori delle Nazioni Unite confermano” o “Zelensky bandisce”, e raramente “Secondo NATO.news-pravda.com”. La disinformazione è anonima e disincarnata, difficilmente contestabile perché parte dell’ambiente e neutrale in apparenza.

Bloccare i domini della rete non basterebbe. Oltre a creare continuamente nuovi siti, l’operazione Pravda non si limita a generare e accumulare contenuti falsi, ma penetra i presidi della fiducia pubblica. I suoi link si intrufolano nelle pagine Wikipedia, nei gruppi Facebook e nei forum online, che diventano vettori inconsapevoli di contaminazione. Nel 2025, la compagnia finlandese Check First ha tracciato quasi duemila hyperlink disseminati in 44 versioni linguistiche della nota enciclopedia online. Tutti riconducibili a 162 siti della rete russa. La recente impennata dei costi di banda di Wikipedia – cresciuti del 50% solo nel 2024 a causa del bombardamento di richieste da parte dei crawler – racconta un nuovo tipo di assedio, il cui costo marginale è prossimo allo zero. La contaminazione non è episodica. È metodica, capillare e industriale. 

“Un tempo creare campagne di disinformazione persuasive e retoricamente efficaci richiedeva risorse, organizzazione e competenze”.

Anche la Cina, dove i media tradizionali sono strettamente controllati dal governo, sperimenta le stesse strategie. I membri del Congresso americano hanno espresso preoccupazione quando Gemini, il chatbot sviluppato da Google, ha iniziato a riprodurre senza filtri la linea ufficiale del Partito di Pechino sul trattamento delle minoranze etniche e la gestione della pandemia di coronavirus.

Tuttavia, nell’epoca della disinformazione sistemica e dell’addestramento contaminato, la cecità “programmata” dell’IA non si esaurisce in una lacuna tecnica. È una condizione economica e politica. Consapevoli della deriva, alcuni membri dell’ex-amministrazione Biden avevano tentato interlocuzioni private con le aziende tecnologiche. Ma queste conversazioni si  sono esaurite, finite nel nulla per paura che fossero interpretate come forme di censura. Secondo quanto riportato dal «Washington Post», Open AI, Anthropic e Perplexity non hanno risposto alle richieste di intervista. Lasciato all’inerzia dei mercati, il degrado dell’informazione si espande senza ostacoli, e la mancanza di risposte pubbliche sembra la misura di un disastro annunciato. Alla consapevolezza non segue alcun piano di difesa, nessuna strategia di contenimento.

Nel frattempo, gli Stati Uniti hanno accelerato la  deregolamentazione dell’IA, abbandonando ogni controllo pubblico in nome  della crescita esponenziale e della supremazia tecnologica. Il Global Engagement Center del Dipartimento di Stato – incaricato di monitorare e contrastare la propaganda straniera – è stato chiuso, dopo le accuse di censura di Elon Musk e il blocco dei finanziamenti da parte del Congresso. La task force dell’FBI contro l’influenza straniera è stata  smantellata. Ancora una volta, la disinformazione è il sottoprodotto inevitabile di una società governata dalle logiche di mercato e di potere, anche a costo di dissolvere la verità e la possibilità stessa della democrazia.

Francesca Lagioia

Francesca Lagioia è Professoressa associata di Informatica giuridica, intelligenza artificiale e Diritto ed etica per l’intelligenza artificiale presso l’Università di Bologna, e Professoressa part-time presso l’Istituto Universitario Europeo di Firenze. Si occupa di intelligenza artificiale, etica e diritto, privacy e protezione dei dati, diritto dei consumatori, AI e democrazia e di modelli computabili del diritto.

newsletter

Le vite degli altri

Le vite degli altri è una newsletter che racconta di vite che non sono la nostra: vite straordinarie, bizzarre o comunque interessanti.

La scriviamo noi della redazione di Lucy e arriva nella tua mail la domenica, prima di pranzo o dopo il secondo caffè – dipende dalle tue abitudini.

Iscriviti

© Lucy 2025

art direction undesign

web design & development cosmo

sviluppo e sistema di abbonamenti Schiavone & Guga

lucy audio player

00:00

00:00