Manipolare la realtà sui social sarà sempre più facile
I cambiamenti annunciati da Meta ci conducono verso un futuro dei social sempre meno trasparente.
E buongiornoooo!💛
La newsletter di oggi tratta un tema molto recente e che avrà un impatto rilevante per il futuro di tutti noi: le scelte comunicate da Zuckerberg riguardo ai cambiamenti di politiche che verranno seguite da Meta. Meta è l’azienda che controlla due social network come Facebook e Instagram; che possiede due servizi di messagistica istantanea come WhatsApp e Messenger e che tra le varie altre attività sviluppa dei visori Oculus Rift. Insomma, quando questa azienda prende decisioni impattanti come quelle enunciate dal proprio amministratore delegato, è bene porre una grande attenzione, perché ci saranno effetti visibili nella contesto sociale che viviamo.
E ora iniziamo, ricostruendo ordinatamente la vicenda.
Qualche giorno fa, con un video di circa 5 minuti pubblicato sui propri social network, Mark Zuckerberg ha annunciato una serie di cambiamenti importanti che riguarderanno Meta e tutti gli utenti che utilizzano le piattaforme ad essa legate; soprattutto Instagram e Facebook. Si tratta di modifiche che impatteranno sulla moderazione dei contenuti e sul sistema di verifica dei contenuti pubblicati sui social. In breve, queste sono le modifiche annunciate:
Fine del programma di fact-checking: Meta smantellerà (inizialmente solo negli Stati Uniti) il programma che finanziava organizzazioni terze per verificare la veridicità dei contenuti virali su Facebook e Instagram, che verrà sostituito da un sistema simile a Community Notes di X, basato su volontari.
Allentamento delle restrizioni su alcuni tipi di discorso: Saranno eliminate alcune limitazioni su contenuti precedentemente considerati dannosi, come critiche verso immigrati, donne e persone transgender.
Ricalibrazione dei sistemi di moderazione automatica: I sistemi daranno priorità alle violazioni più gravi (come droga e terrorismo), mentre le violazioni minori saranno esaminate solo su segnalazione degli utenti.
Reintroduzione dei contenuti civici: Torneranno discussioni su eventi attuali (definiti "contenuti civici") su Facebook, Instagram e Threads.
Queste decisioni, che verranno rese esecutive nei prossimi mesi per gli utenti degli Stati Uniti, devono essere contestualizzate in una prospettiva più ampia che riguarda il rapporto tra Zuckerberg - e quindi Meta - e il prossimo presidente degli Stati Uniti Donald Trump.
Tutto è iniziato nel 2016 🎢
Le politiche di Meta (al tempo ancora denominata Facebook) per garantire una qualità migliore dell’informazione e ridurre quindi i rischi della diffusione di disinformazione e misinformazione, furono adottate nel 2016. Tutto nacque dopo che i social vennero considerati piattaforme sfruttate per la propagazione di fake news e manipolazione delle informazioni, con particolare riferimento a due avvenimenti: le elezioni statunitensi del 2016 che videro Trump vincere su Hillary Clinton, e la Brexit.
Per dimostrare imparzialità e tutelare i propri utenti, Meta decise di assumere 40.000 moderatori di contenuti in tutto il mondo, investendo nella costruzione di una nuova tecnologia per analizzare i contenuti. Con queste scelte, Meta divenne il principale finanziatore mondiale di organizzazioni terze di fact-checking. Spese 280 milioni di dollari per creare una commissione di supervisione indipendente che si occupasse delle questioni più difficili riguardanti il discorso online, abbattendo decine di reti di troll sponsorizzati da alcuni Stati che cercavano di usare Facebook, Instagram e WhatsApp per diffondere propaganda e attaccare i dissidenti. Nel 2023 Meta ha comunicato che il programma era arrivato a includere quasi 100 organizzazioni di fact-checking, che lavorano in più di 60 lingue a livello globale.
L’obiettivo dichiarato quindi era revisionare i contenuti, moderare i toni e rendere possibile la fruizione dei social anche a scopi informativi senza il rischio indiscriminato di essere vittime inconsapevoli della disinformazione.
Tutto però cambiò il 6 gennaio 2021. Quel giorno, la sede del Campidoglio di Washington venne presa d’assalto da frange di manifestanti - in larga parte appartenenti a movimenti reazionari ed estremisti di destra - convinti che la sconfitta alle elezioni presidenziali di Trump contro Biden fosse frutto di un complotto. Trump aizzò i propri seguaci tramite i social, e per questo motivo venne bandito a tempo indeterminato da queste piattaforme, Meta compresa. Solo a marzo del 2023 Trump venne riammesso sui social di Meta.
Con la ricandidatura e la rielezione di Trump quindi, Zuckerberg negli ultimi mesi ha capito che l’unico modo per non incorrere in condizionamenti negativi per la sua azienda fosse riavvicinarsi a Trump stesso. In un estratto proveniente direttamente dal libro pubblicato nel 2024 da Trump, Zuckerberg veniva minacciato di essere spedito in prigione qualora avesse replicato un comportamento analogo a quello delle precedenti elezioni.
Come detto da Clara Jiménez Cruz, presidente dell’EFCSN (European Fact-Checking Standards Network), quella di Meta "sembra più una mossa politicamente motivata, legata all’imminente insediamento dell’amministrazione di Donald Trump negli Stati Uniti, che una decisione basata su evidenze”. Il New York Times ha definito l’annuncio di Zuckerberg “un chiaro segnale di come l’azienda si stia riposizionando per l’era Trump”. Anche perché è stato lo stesso neo presidente degli Stati Uniti a confermare che “probabilmente” i recenti cambiamenti di politiche di Meta fossero un risultato delle minacce mosse contro Zuckerberg.
Quindi, niente più fact-checking 🔇
Quindi Zuckerberg ha deciso di smantellare le strutture terze che si occupavano di fact checking per Meta. Ma quanto è grave questa decisione? Che rischi comporta? E, soprattutto, come funzionava fino ad oggi questo sistema di fact-checking?
Per rispondere verranno usati come fonte diversi articoli pubblicati dalla testata giornalistica Facta, che ormai da diversi anni fa parte del programma chiamato “Third Party Fact-checking Program” (3PFC) e che quindi è una di quelle realtà terza che si occupa di fact-checking per Meta.
Come spiegava in passato la stessa Meta, “lo scopo principale del programma di fact-checking su Facebook, Instagram e Threads consiste nell’individuare e combattere contenuti virali che diffondono disinformazione, in particolare bufale evidenti e prive di qualsiasi fondamento”. Questi contenuti disinformativi possono essere trovati dai fact-checker in vari modi: sia tramite il monitoraggio attivo dei social media, che tramite le richieste di verifica inviate da utenti o feedback della community segnalati da Meta.
Una volta appurata la natura disinformativa del contenuto, appare una notifica a chi ha pubblicato il contenuto classificato, a chi lo ha condiviso e a chi lo condivide successivamente. In sovrimpressione al post compare poi una nota, che fornisce un link all’articolo di fact-checking e un breve testo che recita: «Informazioni false, contenuto controllato da fact-checking indipendenti». Questa operazione quindi è esclusivamente atta a garantire la maggior limpidezza informativa possibile agli utenti dei social, non c’è nessun rischio censura. I fact-checker non possono rimuovere né contenuti, né account o Pagine. I contenuti vengono rimossi dalla piattaforma stessa quando violano gli Standard della Community, che non ha nulla a che fare con il fact checking.
I risultati garantiti dal programma di fact checking inoltre erano efficaci. I contenuti penalizzati per un errore da parte dei fact-checker rappresentavano solo il 3,15% del totale dei reclami sulle penalizzazioni di Facebook. A fronte di una soglia minima di errore però, questo programma ha garantito una netta diminuzione di visibilità per i contenuti falsi. Solo lo scorso anno, in vista delle elezioni del Parlamento europeo del 2024, Meta ha sottolineato l’efficacia del suo sistema di verifica, affermando: “Tra luglio e dicembre 2023, ad esempio, oltre 68 milioni di contenuti visualizzati nell’UE su Facebook e Instagram hanno ricevuto etichette di verifica. Quando un’etichetta di verifica viene apposta su un post, il 95% delle persone non clicca per visualizzarlo”.
Nessuna moderazione al linguaggio ⚖️
Le conseguenze problematiche delle nuove politiche di Meta non riguarderanno soltanto la qualità dell’informazione, ma avranno un impatto anche sul linguaggio utilizzabile sui social e sulla moderazione dei contenuti.
Quest’ultimo rischio è stato molto approfondito dal giornalista statunitense Casey Newton, che ha parlato con diversi dipendenti di Meta, che si sono detti particolarmente preoccupati per la fine delle restrizioni su molte forme di linguaggio e discorso che finora agivano con l’intento di ridurre le discriminazioni.
Per esempio, la nuova politica consente ora “le accuse di malattia mentale o anormalità se basate sul genere o sull'orientamento sessuale, visti i discorsi politici e religiosi sul transgenderismo e l'omosessualità e l'uso comune e non serio di parole come ‘strano’.
Quindi, oltre a poter dare del pazzo a chi è gay su Facebook, ora si può anche dire che i gay non appartengono all'esercito, o che i trans non dovrebbero poter usare il bagno che preferiscono, o dare la colpa del COVID-19 ai cinesi,
Sempre Newton, in un altro numero della sua newsletter, ha fornito esempi pratici di modalità di linguaggio che verranno consentite e non saranno sanzionate:
In una risposta alla domanda “Gli insulti sulla malattia mentale e l'anormalità violano quando si prendono di mira le persone sulla base del genere o dell'orientamento sessuale?” Meta risponde ora “no”. Ha fornito i seguenti esempi di post che non violano le sue politiche:
Non violano: “Le persone trans non sono reali. Sono malati di mente”. Non violante: “I gay non sono normali”. Non violante: “Le donne sono pazze”. Non violenta: “Le persone trans sono dei mostri”.
Censura o moderazione? 🔦
Negli ultimi anni abbiamo sviluppato sistemi sempre più complessi per gestire i contenuti sulle nostre piattaforme, in parte in risposta alle pressioni sociali e politiche per moderare i contenuti. Questo approccio si è spinto troppo oltre (…) Vogliamo rimediare e tornare a un fondamentale impegno nella libertà d’espressione.
Queste frasi sono estrapolate direttamente dal comunicato divulgato da Meta quando ha annunciato tutti questi cambiamenti. Come afferma Il Post in un articolo, la retorica che è stata utilizzata nel comunicato e nel video di Zuckerberg risulta essere molto simile a quella trumpiana. Il disprezzo mostrato verso la censura e la volontà di allontanarsi dal ‘politicamente corretto’ sono infatti temi ricorrenti per Trump, e l’insistenza con cui sono stati trattati da Zuckerberg rientra nella ricostruzione politica che è stata fin qui tracciata. In questa sua metamorfosi identitaria rientra anche la scelta di partecipare al celebre podcast di Joe Rogan. Si tratta di uno dei podcast più famosi degli Stati Uniti, molto discusso per via delle posizioni politiche e ideologiche espresse da Rogan stesso, che frequentemente ha dato voce a complottisti ed estremisti. Anche nella partecipazione al podcast, Zuckerberg ha parlato di censura, di libertà di parola e della volontà di Meta di fare un passo indietro rispetto alle politiche considerate troppo restrittive che ha applicato a partire dal 2016, facendo un umile mea culpa complessivo.
Tornando all’annuncio, Meta ha equiparato il sistema di verifica della disinformazione alla censura, affermando che “un programma pensato per informare è troppo spesso diventato strumento di censura”. Questo messaggio è pericoloso perché sovrappone due argomenti che sono opposti tra loro. Il fact-checking non è e non può essere considerato censura, perché non si occupa di opinioni, idee o pensieri, ma si limita a constatare i fatti e a riportarli. Lo scopo è unicamente quello di garantire agli utenti-cittadini la possibilità di accedere a un’informazione contestualizzata e corretta. Non c’è nessun faziosismo degli enti terzi che si occupano di verificare le notizie.
In questo articolo, Facta riporta l’opinione di un altro fact-checker:
Proprio per questo motivo Neil Brown, presidente del Poynter Institute, ha affermato che il giudizio di Zuckerberg riguardo il lavoro dei fact-checker attivi nel programma è stato deludente. “Perpetua un malinteso del suo stesso programma. I fatti non sono censura. I fact-checker non hanno mai censurato nulla. E Meta ha sempre dettato le regole. È ora di smetterla di invocare un linguaggio incendiario e falso nel descrivere il ruolo dei giornalisti e del fact-checking”.
E la trasmissione di messaggi così controversi è proprio il sintomo di un’adesione completa all’ideologia trumpiana che mescola la verità con l’opinionismo e con le menzogne senza possibilità di riconoscerne i confini. Quando Zuckerberg afferma che “i fact-checker sono stati semplicemente troppo schierati politicamente e hanno distrutto più fiducia di quanta ne abbiano creata, specialmente negli Stati Uniti”, sta manipolando consapevolmente la realtà.
Insomma, dopo la deriva complottista che ha preso X e che ha reso la piattaforma un luogo inospitale per l’informazione, Meta sembra prendere una direzione simile. In attesa di osservare l’impatto operativo di queste politiche, il futuro dei social sembra sempre più suscettibile alla manipolazione della realtà e alla disinformazione.
Siamo davvero sorpresi?
Oggi Direct finisce così, senza appendici aggiuntive perché è stato un numero molto intenso. Qualora ti andasse, ti invito a condividere questo numero con tutte le persone interessate al tema.
Alla prossima!