X e la disinformazione sulla guerra: fake news da profili verificati

Un’indagine condotta da NewsGuard, un’organizzazione dedicata al monitoraggio della disinformazione, hanno sollevato preoccupazioni riguardo alla diffusione di informazioni errate pubblicate su X, il social media precedentemente noto come Twitter. Secondo il rapporto di NewsGuard, alcuni utenti “premium” di X, quelli cioè che pagano un abbonamento al social e hanno il badge blu, hanno pubblicato contenuti che promuovono teorie cospirazioniste riguardanti la guerra tra Israele e Hamas. Questi post, seguiti da NewsGuard dal 13 al 22 novembre, hanno totalizzato oltre 92 milioni di visualizzazioni. Le indagini si sono concentrate su 10 account con oltre 100.000 seguaci ciascuno, identificati da NewsGuard come i maggiori diffusori di fake news sulla guerra. Veena McCoole, vicepresidente delle comunicazioni di NewsGuard, ha espresso preoccupazione per il fatto che questi post sono pubblicati con l’intento di promuovere informazioni fuorvianti o discorsi d’odio, e che tali contenuti possano essere eleggibili per un programma di condivisione delle entrate pubblicitarie di X.

Il rapporto ha anche evidenziato la presenza di pubblicità di aziende come Pizza Hut sotto questi post controversi. Questo solleva interrogativi su come X gestisce la pubblicità in relazione a contenuti potenzialmente nocivi. La situazione è aggravata da recenti azioni legali intentate da X contro Media Matters, dopo un rapporto che mostrava contenuti pubblicitari di grandi aziende associati a messaggi pro-nazisti. Interrogativi simili emergono riguardo alla politica di X sulla condivisione delle entrate. Elon Musk, proprietario di X, aveva precedentemente dichiarato che i post corretti attraverso lo strumento di moderazione crowd-sourced Community Notes non sarebbero stati idonei per la condivisione delle entrate. Tuttavia, il rapporto di NewsGuard mostra che questa politica potrebbe non essere applicata in modo coerente.

Inoltre, il rapporto di NewsGuard mette in luce la complessità e l’ambiguità dell'”Accordo Utente X”, che a volte sembra riferirsi a un singolo documento, mentre altre volte a un insieme di regole distribuite su diverse pagine. Questo rende difficile per gli utenti comprendere pienamente quali comportamenti siano in violazione delle norme della piattaforma. Queste rivelazioni sono particolarmente rilevanti in un contesto in cui la disinformazione online può avere impatti reali e gravi sulla società. Il caso di X dimostra l’importanza di una governance trasparente e responsabile delle piattaforme di social media, soprattutto quando si tratta di gestire contenuti potenzialmente dannosi e le loro implicazioni economiche.