Paolo Ruta
Dopo lo scandalo Cambridge Analytica, Facebook (oggi Meta) è stata costretta ad adottare misure più efficaci di controllo e moderazione dei contenuti. Chi ha svolto quel lavoro, ne racconta lati oscuri e retroscena, tracciando un bilancio di quell’esperienza oggi che la piattaforma sta cambiando le sue policy.
Ho lavorato come moderatore dei contenuti sulle piattaforme Meta dal 2017 al 2019. Erano gli anni dello scandalo Cambridge Analytica, quando si scoprì che i dati personali di milioni di utenti Facebook erano stati raccolti senza consenso e utilizzati per influenzare le elezioni presidenziali statunitensi del 2016 e il referendum sulla Brexit. Quell’evento sollevò un acceso dibattito sulla sicurezza e sull’impatto dei social media nei processi democratici, aumentando la pressione su Facebook (oggi Meta) affinché adottasse misure più efficaci di controllo e moderazione.
Sulla scia del Germany Network Enforcement Act, una legge tedesca che obbliga le piattaforme social con oltre due milioni di utenti alla moderazione online, il Regno Unito e alcuni paesi europei come Spagna, Irlanda, Francia e Italia si stavano attrezzando per vie legali affinché Meta impiegasse tutte le risorse necessarie per eliminare dalle sue piattaforme contenuti pericolosi: discorsi di incitamento all’odio motivato da discriminazioni etniche, di genere o religiose, bullismo, violenza, abusi sui minori, disinformazione e propaganda terroristica. Tali richieste si basavano sulla crescente pressione pubblica affinché le piattaforme digitali assumessero un ruolo più responsabile nella moderazione dei contenuti, soprattutto alla luce dell’influenza sempre maggiore dei social media nelle nostre vite e negli equilibri democratici.
Dalla sede di Berlino, dove lavoravo, moderavamo contenuti nella maggior parte delle lingue usate sulla piattaforma. Non senza imbarazzo ricordo che il mercato italiano si contendeva il podio con il mercato tedesco e con quello spagnolo per numero di violazioni, soprattutto quelle per odio razziale e apologia di organizzazioni politiche illegali come il partito nazista e quello fascista.
Specie agli inizi, la nostra percezione come moderatori era che quel lavoro fosse necessario ma sostanzialmente inefficace. Per ogni violazione rimossa ne comparivano migliaia e di fatto pensavamo che Facebook investisse nel progetto al solo scopo di non scontrarsi con le normative europee già in fase di sviluppo e adozione. Solo col tempo abbiamo compreso il nostro ruolo nell’addestramento dei modelli di intelligenza artificiale di Facebook: ogni contenuto moderato riceveva una label, un’etichetta descrittiva che avrebbe consentito alla macchina di riconoscere e moderare automaticamente contenuti simili in futuro.
“Dalla sede di Berlino, dove lavoravo, moderavamo contenuti nella maggior parte delle lingue usate sulla piattaforma. Non senza imbarazzo ricordo che il mercato italiano si contendeva il podio con il mercato tedesco e con quello spagnolo per numero di violazioni”.
Facebook sapeva che la moderazione dei contenuti online sarebbe diventata presto un obbligo imposto dall’Europa – come difatti è successo con l’Union’s Digital Services Act (DSA) del 2022 – ed era quindi fondamentale trovare un sistema efficace per ridurre i costi legati al servizio. Sostituire gradualmente i moderatori umani con sistemi automatizzati avrebbe garantito la sostenibilità economica.
A dispetto della perdita di posti di lavoro, questa scelta non era del tutto sbagliata: quelle mansioni influivano sulla salute degli agenti, esposti quotidianamente a contenuti destabilizzanti sul piano psicologico, emotivo e persino politico, creando a volte radicalizzazioni tanto gravi quanto quelle che cercavamo di contrastare.
Della nostra sede di Berlino si è occupato il «Guardian» con un articolo del settembre 2019 in cui alcuni colleghi hanno denunciato anonimamente le conseguenze drammatiche della moderazione online su alcuni dipendenti del progetto. Il loro racconto combaciava con quello di altri moderatori impiegati in Europa e negli Stati Uniti, facendo emergere scenari preoccupanti: abuso di droga e farmaci, sviluppo di dipendenze da contenuti violenti o a sfondo sessuale, depressione e sindrome da stress post traumatico. Non era raro, infatti, che un qualsiasi lunedì in ufficio iniziasse con la visione di un video di una decapitazione eseguita in una discarica da un cartello della droga e si concludesse nel pomeriggio con la foto di un bambino annegato nel Canale di Sicilia, accompagnata da centinaia di commenti come: “Meno uno”.
I moderatori percepivano profondamente la responsabilità civile del proprio lavoro — qualcuno doveva pur svolgerlo, soprattutto per addestrare gli algoritmi a operare in autonomia — ma richiedevano maggiori tutele, a partire da un ampliamento del programma di assunzioni e da stipendi più adeguati alla natura del compito. Tuttavia, le aziende esternalizzate incaricate da Meta di gestire i progetti di moderazione hanno sistematicamente evitato di adottare tali misure per massimizzare i profitti, costringendo i dipendenti a gestire un volume sproporzionato di contenuti in cambio di salari mediamente bassi, resi appena più allettanti dai bonus legati alla produttività. Sull’argomento è stato scritto molto ed è anche stato realizzato un documentario dal titolo The Cleaners (2018) diretto da Hans Block e Moritz Riesewieck: Il documentario svela come, dietro la facciata patinata dei social network, esista un lavoro invisibile e psicologicamente devastante, dove i moderatori sono costretti a confrontarsi quotidianamente con materiali estremi, spesso senza adeguato supporto psicologico.
Nel rispetto delle normative sulla privacy e della pertinenza alle competenze richieste dal ruolo, avrebbe contribuito positivamente l’adozione di test psicologici nella fase di assunzione dei moderatori, che al contrario venivano selezionati soltanto sulla base delle loro competenze linguistiche e logiche e del loro background accademico. In media gli agenti parlavano dalle due alle cinque lingue straniere ed erano in possesso di una laurea o di una certificazione professionale post diploma. Ciò che non veniva verificato durante i colloqui era lo stato psicologico dei candidati. Questa mancanza divenne tragicamente evidente una mattina del 2019, quando un collega, già segnato in passato dalla depressione, ebbe un crollo emotivo in ufficio, reagendo in modo violento contro chi cercava di calmarlo. Dopo una lunga assenza per malattia abbiamo saputo che il suo contratto era stato chiuso, ma ho continuato a incontrarlo per caso nel quartiere dove vivo. Eravamo vicini di casa. Fino al 2021 l’ho visto, di tanto in tanto, camminare da solo sulla Hauptstrasse, a urlare ai passanti e sputargli addosso o a intrattenere presenze immaginarie su una delle panchine che costeggiano la ciclabile a Nollendorfplatz. Era evidente che quel lavoro aveva rotto un equilibrio già fragile.
La vicenda del mio collega, con le sue tragiche conseguenze, non è un caso isolato, ma riflette le numerose storie condivise negli ultimi anni da moderatori di contenuti online in tutto il mondo. Ciò ricorda, ancora una volta, che nonostante il lavoro di moderazione sia fondamentale per la sicurezza e il benessere della società, è necessario riconoscerne i rischi concreti e che le aziende adottino misure adeguate per proteggere i propri agenti, affinché possano svolgere questo compito delicato in condizioni di sicurezza.
Accanto alle gravi conseguenze psicologiche vissute dai moderatori, non si possono ignorare i significativi progressi compiuti da Meta tra il 2017 e il 2019 nel migliorare l’efficacia e la precisione delle proprie policy di moderazione. Inizialmente, queste linee guida risultavano piuttosto rudimentali, e applicavano criteri di valutazione binari che spesso non riuscivano a gestire la complessità del linguaggio verbale dei commenti e dei post da moderare, come ironia, sarcasmo, metafore o contesti culturali specifici, costringendo i moderatori a valutare i contenuti in modo meccanico e inflessibile, e generando numerosi falsi positivi. Tuttavia, queste difficoltà rappresentavano sfide inevitabili nell’adattare regole generali a un progetto di scala globale che era di fatto un work in progress, chiamato a valutare quotidianamente milioni di contenuti in costante evoluzione.
Grazie all’aggiornamento settimanale delle policy di moderazione (sulla base dei dati raccolti e analizzati dai nostri content department) e a un continuo processo di formazione di tutti gli agenti coinvolti, nel 2019 il sistema di moderazione di Facebook e Instagram presso la nostra sede di Berlino ha raggiunto livelli di accuratezza tali da ridurre il margine di errore al 2%. Le altre sedi internazionali con cui ci confrontavamo settimanalmente riportavano risultati simili, per cui lo sforzo degli ultimi due anni di lavoro trovava in quei dati un motivo di soddisfazione.
È vero, ciò non è bastato a rendere i social network di Meta un luogo sicuro. Ma era pur sempre l’inizio di un processo più ampio volto a trasferire gradualmente le regole di una convivenza serena e civile anche nel mondo virtuale.
Ho smesso di lavorare a quel progetto alla fine del 2019. Dal 2020 in poi, Meta ha gradualmente integrato un numero crescente di nuovi algoritmi per l’automatizzazione dei processi di moderazione, riducendo il numero di agenti umani. Ha poi creato l’Oversight Board, un organismo indipendente istituito per esaminare e valutare le decisioni di moderazione dei contenuti sulle piattaforme di Meta. Il suo obiettivo principale è garantire che le azioni di Meta in materia di gestione dei contenuti rispettino gli standard comunitari, i valori aziendali e gli impegni in materia di diritti umani. I più sospettosi potrebbero dubitare – non a torto – della sua indipendenza, visto che il Board è finanziato direttamente da Meta — solo nel 2022 ha ricevuto centocinquanta milioni di dollari, come riporta la stessa organizzazione sul proprio sito ufficiale.
Un anno dopo Meta è tornata al centro delle polemiche sulla moderazione online. Documenti interni hanno rivelato che l’azienda ha esentato alcuni dei suoi principali inserzionisti dal consueto processo di controllo dei contenuti, introducendo “tutele” speciali per gli utenti che spendevano più di 1.500 dollari al giorno. Ciò ha delegittimato il senso della moderazione online privilegiando il profitto alla responsabilità civile, e in alcuni casi legale, della piattaforma.
Come conseguenza, nel 2024 Meta ha rimesso in discussione i propri sistemi di moderazione ma, al contrario di quanto ci si sarebbe aspettato, questa autocritica non ha portato a uno sforzo maggiore per migliorare il servizio, bensì a una sua graduale liquidazione. Ridimensionando il potenziale delle recenti tecnologie nell’individuazione di falsi positivi, Nick Clegg, presidente degli affari globali di Meta, ha affermato che i sistemi di moderazione automatica dell’azienda hanno rimosso troppi contenuti innocui e che i tassi di errore nell’applicazione delle policy sono ancora eccessivamente elevati, ostacolando la libertà di espressione che l’azienda intende promuovere.
Questa posizione ha anticipato quanto annunciato da Mark Zuckerberg in un video pubblicato pochi giorni fa, in cui il CEO comunica un cambio radicale nei processi di moderazione dei contenuti sulla piattaforma, soprattutto per ciò che riguarda il contrasto alle fake news. Dal 2025 infatti, Meta ha deciso di compiere un passo ulteriore e forse definitivo in una direzione che lascia perplessi molti osservatori: una drastica riduzione dei servizi di moderazione e la fine del suo programma di fact-checking gestito da terze parti. Il compito di verificare la veridicità delle informazioni è stato ora delegato a un sistema di Community Notes, un modello ispirato a quello già adottato da X (ex Twitter).
Questo approccio prevede che siano gli utenti stessi a valutare i contenuti potenzialmente falsi o fuorvianti, riducendo il ruolo diretto della piattaforma nella moderazione. Facciamo un esempio concreto: affermazioni come “l’omosessualità è una malattia“, che fino a poco tempo fa sarebbero state prontamente rimosse, potrebbero ora restare online se la maggioranza degli utenti della Community Notes le ritenesse accettabili.
La decisione è stata giustificata da Mark Zuckerberg come un ritorno alle radici dell’azienda: promuovere la libertà di espressione, senza che Meta debba assumersi la piena responsabilità del controllo sui contenuti. Tuttavia, come è stato notato da Francesca Lagioia in una recente intervista qui su Lucy, questo cambiamento comporta rischi significativi, specialmente in un contesto in cui la disinformazione si propaga con una velocità tale da influenzare gli assetti politici internazionali e le dinamiche sociali globali. Delegare agli utenti il compito di vigilare sui contenuti rischia di creare un sistema caotico e soggetto a manipolazioni, dove le segnalazioni possono essere guidate più da interessi personali o di gruppo che non da un sincero impegno per la verità. Inoltre, resta da vedere se le Community Notes saranno effettivamente in grado di arginare il flusso di contenuti falsi o dannosi con la stessa efficacia di un approccio più centralizzato e professionale.
C’è poi la questione delle responsabilità legali. In Europa il Digital Services Act impone regole rigorose alle piattaforme, richiedendo la rimozione rapida di contenuti illegali e l’adozione di misure adeguate per mitigare i rischi legati alla diffusione di disinformazione e incitamento all’odio. La nuova strategia di Meta potrebbe entrare in conflitto con queste normative, mettendo l’azienda a rischio di sanzioni considerevoli nel mercato europeo.
Ma a una perdita potrebbe corrispondere un più alto vantaggio.
Infatti la scelta di Zuckerberg è certamente un omaggio alla nuova amministrazione americana guidata da Donald Trump, il quale ha sempre avuto un rapporto conflittuale con la moderazione online. D’altronde è proprio l’elettorato trumpiano che su X, la piattaforma dell’alleato Elon Musk, alimenta senza alcun controllo le principali teorie che creano l’ossatura ideologica del nuovo partito Repubblicano. Aver citato X come un modello per la tutela della libertà di espressione ha aperto anche per Meta un canale di collaborazione con la Casa Bianca che di certo porterà all’azienda dei benefici.
Resta da capire a quale prezzo, considerato che Meta raccoglie più di tre miliardi di utenti in tutto il mondo e che la diffusione di fake news e contenuti d’odio su questa scala potrebbe avere conseguenze sulla stabilità sociale e politica di interi Paesi. Affidare la moderazione dei contenuti a un sistema comunitario rischia di amplificare le dinamiche di polarizzazione, manipolazione dell’informazione e radicalizzazione. In un contesto globale già fragile, Meta potrebbe trovarsi a bilanciare i vantaggi economici derivanti da un rapporto più stretto con il potere politico statunitense con la responsabilità morale e legale di gestire in modo sicuro e responsabile la più grande piattaforma di comunicazione mai esistita.
La mia esperienza come moderatore mi ha insegnato quanto fosse complesso ma necessario mantenere un equilibrio tra la libertà di espressione e la necessità di proteggere gli utenti da contenuti dannosi. La moderazione, infatti, non dovrebbe mai essere confusa con la censura. Mentre la censura implica la soppressione arbitraria di opinioni basata su pregiudizi politici, religiosi o culturali, la moderazione mira a creare uno spazio sicuro e rispettoso, intervenendo esclusivamente quando i contenuti violano regole condivise che tutelano il benessere collettivo, con particolare attenzione alle categorie sociali storicamente marginalizzate. Questo approccio dovrebbe promuovere un ambiente digitale più equo e inclusivo, garantendo che le voci di minoranze etniche, comunità LGBTQ+ e altri gruppi vulnerabili siano protette da contenuti offensivi, violenti o discriminatori.
In quest’ottica, la rimozione di contenuti che inneggiano a ideologie d’odio, come il nazifascismo, o che promuovono pratiche di esclusione sociale, non può essere considerata un atto di censura. Al contrario, rappresenta una misura necessaria per assicurare che i social network non diventino strumenti di diffusione di ideologie e comportamenti che, nella vita reale, sono già perseguiti penalmente. In molti Paesi europei, come la Germania e l’Italia, la propaganda di idee discriminatorie e l’apologia di crimini d’odio costituiscono reati sanciti dal codice penale. Ignorare tali contenuti online significherebbe non solo tollerare comportamenti illegali, ma anche legittimarli, offrendo loro un’enorme visibilità in contesti pubblici virtuali.
“Un anno dopo Meta è tornata al centro delle polemiche sulla moderazione online. Documenti interni hanno rivelato che l’azienda ha esentato alcuni dei suoi principali inserzionisti dal consueto processo di controllo dei contenuti, introducendo “tutele” speciali per gli utenti che spendevano più di 1.500 dollari al giorno”.
In questo senso, la moderazione diventa uno strumento essenziale per difendere i valori democratici e i diritti umani, assicurando che la libertà di espressione non venga distorta fino a giustificare e promuovere ideologie che negano quei diritti. Non si tratta di limitare il dibattito, bensì di definire i confini oltre i quali la libertà individuale compromette la sicurezza e la dignità collettiva.
Oggi, con l’abbandono del fact-checking tradizionale e con la drastica riduzione delle hate policies, sembra che quell’equilibrio sia stato abbandonato in favore di una visione più minimalista della responsabilità aziendale. Ancora Francesca Lagioia ci ricorda come le piattaforme social abbiano preso in prestito dal costituzionalismo americano la metafora del libero mercato delle idee, che per molto tempo ha trattato la regolamentazione della rete esclusivamente come una questione di libertà di espressione. L’idea è che in un mercato competitivo e libero anche le idee peggiori, e quindi anche quelle false, possono avere cittadinanza, nella convinzione che le migliori, e dunque anche la verità, infine prevarranno. Si tratta di una fiducia cieca nella capacità autocorrettiva del “mercato”. Ciò che a volte dimentichiamo è che esiste anche un contraltare, un lato passivo della libertà di espressione, che è il diritto all’informazione, cioè il diritto a essere informati in modo verificabile. E i diritti non dovrebbero essere variabili delle dinamiche di mercato”.
A tutto ciò si aggiunge il ridimensionamento degli impegni sociali di Meta, testimoniato anche dalla recente liquidazione dei dipartimenti DEI (Diversity, Equity & Inclusion), strutture fondamentali per promuovere l’inclusione e proteggere le categorie sociali storicamente marginalizzate. Un altro cambio di rotta in favore della nuova amministrazione americana. Ricordiamo che durante il suo precedente mandato (2017-2021), Trump aveva già adottato misure contro le politiche DEI. Nel settembre 2020, aveva emesso un ordine esecutivo che vietava alle agenzie federali e ai loro appaltatori di condurre programmi di formazione basati su concetti di “diversità” e “sensibilità razziale”, sostenendo che tali programmi fossero “divisivi” e promuovessero una visione negativa degli Stati Uniti. Questo ordine è stato successivamente revocato dal presidente Joe Biden nel gennaio 2021.
Sarà interessante osservare come le recenti scelte di Meta influenzeranno la piattaforma, gli utenti e, soprattutto, la fiducia nelle informazioni che circolano sui social media. Forse, la vera domanda da porsi è se Meta stia davvero navigando verso un futuro di libertà o se stia semplicemente lasciando che la corrente decida la rotta.
Paolo Ruta
Paolo Ruta lavora come content writer e consulente AI. Scrive di linguistica, cultura pop e tecnologie digitali.
newsletter
Le vite degli altri
Le vite degli altri è una newsletter che racconta di vite che non sono la nostra: vite straordinarie, bizzarre o comunque interessanti.
La scriviamo noi della redazione di Lucy e arriva nella tua mail la domenica, prima di pranzo o dopo il secondo caffè – dipende dalle tue abitudini.
Contenuti correlati
© Lucy 2025
art direction undesign
web design & development cosmo
sviluppo e sistema di abbonamenti Schiavone & Guga
00:00
00:00