Il programma di fact-checking è un colabrodo. E Meta lo sospende

Fallimento del programma di fact-checking di Meta

Meta sta dismettendo il suo programma di verifica dei fatti o fact checking dedicato all’individuazione della disinformazione, in un contesto di crescente apertura verso politiche di “libertà di parola” sulle proprie piattaforme.

Un recente rapporto di NewsGuard ha messo in evidenza come il programma non stesse adempiendo alla sua funzione primaria. Solo il 14% dei post esaminati, contenenti narrazioni di disinformazione provenienti da Russia, Cina e Iran, è stato contrassegnato come falso. Secondo l’analisi, la maggior parte dei contenuti che diffondevano tali narrazioni straniere è stata pubblicata senza alcun contrassegno di “Falso”, “Alterato”, “Parzialmente Falso” o “Mancanza di Contesto”.

I parametri della ricerca

Nonostante alcuni tentativi di arginare la disinformazione, Meta non è riuscita a controllare efficacemente i contenuti malevoli diffusi sulla sua piattaforma. Anche quando una parte della disinformazione è stata arginata, decine di altri post con affermazioni false, anche se riformulate, rimanevano senza correzioni. Questo fallimento ha sollevato preoccupazioni sul futuro della moderazione dei contenuti su Meta, che si avvia verso una revisione delle sue politiche di fact-checking.

Si prevede che la chiusura del programma di verifica delle informazioni possa lasciare un vuoto significativo nella lotta contro la disinformazione, compromettendo ulteriormente la capacità di Meta di rispondere in modo adeguato a questo problema critico.

Il rapporto di NewsGuard boccia Meta

Secondo l’analisi di NewsGuard, il programma di verifica dei fatti di Meta ha mostrato evidenti lacune nel suo operato. La rilevazione del 14% di post classificati come contenuti disinformativi lascia intravedere una gestione inefficace della problematica e una scarsa capacità di riconoscere narrazioni dannose. Tale dato solleva interrogativi sull’adeguatezza degli algoritmi utilizzati, che non riescono a discernere variazioni linguistiche significative all’interno dei messaggi, addomesticando la loro capacità di identificare la disinformazione in modo coerente e sistematico.

Un aspetto critico emerso dal rapporto è come i post contenenti affermazioni false, anche se riformulati, non siano stati adeguatamente contrassegnati. Questo ha comportato che, anche in presenza di etichette informative per alcune affermazioni, il numero elevato di contenuti non corretti rimanesse elusivo, aggravando la situazione della disinformazione sulla piattaforma.

Inoltre, la ricerca ha evidenziato come Meta abbia marcato alcuni contenuti con l’etichetta di disinformazione, ma abbia trascurato un gran numero di altri post con il medesimo significato. Questo disallineamento tra etichettatura e contenuti disinformativi conferma la fugacità del controllo sulla diffusione delle informazioni false e il rischio forense di un approccio unidimensionale nel contrasto alla disinformazione.

Cause della mancata individuazione dei post fake

Le lacune nel programma di verifica dei fatti di Meta sono attribuibili a vari fattori che compromettono la capacità dell’azienda di gestire in modo efficace la disinformazione. Secondo il rapporto di NewsGuard, uno dei motivi principali è l’incapacità dell’algoritmo di Meta di riconoscere le varianti linguistiche, come il riformulare o il parafrasare, quando un post è rilevato come disinformativo. Ciò porta a una situazione in cui il fallimento nel contrassegnare un contenuto persiste anche con ripetizioni della medesima affermazione sotto forme diverse.

In 10 dei 30 casi analizzati, NewsGuard ha notato che, mentre Meta ha etichettato alcuni post come disinformativi, numerosi altri che propagavano lo stesso messaggio, seppur con parole diverse, non sono stati corretti.

Inoltre, nonostante alcuni successi sporadici nel rilevare contenuti malevoli — ad esempio, nel caso dell’affermazione disinformativa russa riguardante le elezioni in Germania — molti altri post sono sfuggiti completamente al processo di verifica. Questo indica non solo un problema di rilevamento, ma anche di follow-up e monitoraggio proattivo dei contenuti che circolano sulla piattaforma.

Le limitazioni del programma di verifica non si fermano qui; c’è anche la preoccupazione che, con la nuova iniziativa di Meta volto a implementare note della comunità, la qualità della verifica potrebbe addirittura deteriorarsi ulteriormente. Se il processo per applicare queste note è simile a quello già utilizzato per le etichette di disinformazione, ci si aspetta che i risultati siano ancora più deludenti.

La scoperta di NewsGuard suggerisce che la strategia esistente di Meta, basata su tecnologie di intelligenza artificiale e algoritmi predittivi, non è adeguata a fronteggiare la complessità della disinformazione che circola sulle sue piattaforme. Questo richiama l’attenzione sull’importanza di perfezionare le tecnologie impiegate e di investire in metodologie di controllo più robusti, affinché possano affrontare l’evoluzione continua delle narrazioni ingannevoli.