Molto di quello che si trova su Facebook è falso. La cosa non dovrebbe sorprendere perché molto di quello che si trova su internet è falso, e Facebook è un posto in cui le persone condividono quello che vedono, leggono o pensano.
Questo sembra il modo in cui Facebook concepisce il suo ruolo di distributore di informazioni. “Lavoriamo nel settore della tecnologia, non della comunicazione”, ha dichiarato l’estate scorsa Mark Zuckerberg, amministratore delegato di Facebook. Chris Cox, product manager dell’azienda, ha fornito poche settimane fa altri dettagli: “Una azienda editoriale si fonda sulle storie che racconta, un’azienda di tecnologia sugli strumenti che costruisce”.
Ma nel tentativo di essere una piattaforma neutrale per le notizie, Facebook contribuisce anche alla circolazione di informazioni sbagliate, molte delle quali determinate da posizioni politiche. Un articolo del New York Times magazine riflette sul ruolo centrale che il social network ha assunto nel consumo di notizie, consentendo il diffondersi di fonti d’informazione alternative il cui interesse per i fatti reali è subordinato alla smania di clic.
Queste storie che arrivano da nuove fonti si fanno strada nei nostri newsfeed tra immagini di neonati e aggiornamenti di stato. Da una parte: “Hillary beccata di nuovo con un auricolare!” (non ha mai messo un auricolare). Dall’altra: “Le foto di Donald Trump con sua figlia che il direttore della sua campagna non vuole farti vedere!” (la maggior parte sono state ritoccate con Photoshop).
Nel giro di pochi mesi, i redattori sono stati licenziati e sostituiti dagli algoritmi
A maggio Gizmodo scriveva che Facebook aveva affidato il compito di curare la sezione dei trending topics a una squadra di redattori. Questi dovevano assicurarsi che gli articoli che finivano in quella sezione fossero verificati, e di collegarli a un articolo pubblicato da una fonte affidabile.
Tuttavia, l’elemento umano ha messo nei guai Facebook. In un altro articolo di Gizmodo, un ex redattore di Facebook racconta di aver ricevuto l’ordine di eliminare le notizie che parlano di conservatori. All’inizio Zuckerberg ha smentito. “Abbiamo linee guida rigorose che non permettono di dare priorità a un punto di vista, né di reprimere idee politiche”, ha scritto in un post a maggio. Nel giro di pochi mesi, però, i redattori sono stati licenziati e sostituiti dagli algoritmi.
Questa mossa ha avuto subito un effetto negativo. Pochi giorni dopo, nella sezione dei trending topics c’era una storia falsa in cui si dichiarava che Megyn Kelly era stata licenziata da Fox News in quanto sostenitrice di Hillary Clinton. Alla fine la notizia è stata cancellata dalla sezione, ma era stata già vista da milioni di persone.
L’articolo falso nei trending topics ha rappresentato un problema serio: gli articoli in quella sezione ricevono un implicito sigillo di approvazione da Facebook, e questo potrebbe rendere gli utenti più inclini a credervi.
Il fatto che Facebook ha cancellato la notizia dimostra che l’azienda non volesse dare valore all’informazione sbagliata. Ma che succede con storie che appaiono nel newsfeed e che sono talmente false da poter essere smentite con una semplice ricerca su Google? Facebook dovrebbe filtrarle?
Un cerchio rosso per le notizie false
L’azienda usa già un sistema di apprendimento automatico (algoritmi diversi rispetto a quelli che determinano la sezione delle tendenze) per cercare di individuare le informazioni false presenti sul social network, mi ha riferito un portavoce di Facebook. Se un post che contiene un link a una notizia riceve molte reazioni negative nei commenti – oppure contiene dei link a Snopes o PolitiFact, due famosi siti di fact checking – l’algoritmo dedurrà che la notizia originaria sia falsa.
Una volta che il link è stato segnalato dall’algoritmo, è probabile che non spunti fuori nei newsfeed degli utenti. Quindi tutti i post che contengono il link alla notizia falsa saranno cancellati (l’algoritmo funziona solo sui link, non sui post di testo).
Potrebbero esserci anche altre novità in arrivo nell’ambito del fact checking. Adam Mosseri, vicepresidente di Facebook e responsabile del newsfeed, ha detto a TechCrunch:
Nonostante i nostri sforzi, sappiamo di dover fare molto di più. È per questo che vogliamo continuare a migliorare la nostra capacità di identificare le notizie false.
Quello che Facebook sceglierà di fare dipenderà dal ruolo che l’azienda vuole avere su internet. Se vuole essere uno specchio che riflette il resto della rete, senza filtri, allora con ogni probabilità non interverrà per svolgere un ruolo da moderatore. Se però si immagina come uno spazio sicuro dove condividere anche opinioni e idee, allora forse dovrebbe comportarsi un po’ più da arbitro.
Ultimamente l’azienda ha compiuto dei passi in questa direzione, come l’adozione di strumenti contro il bullismo online oppure per segnalare i post di amici che sembrano indicare pensieri autolesionistici o di suicidio.
Passare dalla sicurezza emotiva all’arbitraggio sui fatti espressi in un dibattito sarebbe comunque un bel salto in avanti, oltretutto difficile da compiere. Già solo per la quantità di link postati su Facebook tutti giorni sarebbe incredibilmente difficile anche per una squadra numerosa di esperti di fact checking. E tuttavia nemmeno l’attuale sistema basato sull’algoritmo sembra funzionare, a giudicare dalla quantità di post passati attraverso le sue crepe.
Forse gli algoritmi che adesso identificano i post contesi potrebbero segnalarli per una revisione fatta da umani, con una squadra simile a quella di Snopes. Anzi, magari Facebook potrebbe perfino comprarsi Snopes. Dopo aver fatto ricerche sulla storia e averne verificato l’accuratezza, potrebbero assegnare un distintivo come quelli già presenti sul sito di Snopes – un cerchio rosso con una X per le notizie false; un cerchio verde con un segno di “visto” per quelle vere – su un angolo dell’anteprima del link nel post.
Un sistema perfetto di verifica dei fatti probabilmente non avrebbe modificato i risultati delle elezioni negli Stati Uniti. Tuttavia una delle critiche fondamentali alla campagna di Trump è stato il suo totale disinteresse per i fatti e la disponibilità dei suoi sostenitori a seguire il suo esempio.
Nonostante un’incredibile varietà di risorse per la verifica dei fatti disponibili online, Facebook ha consentito con facilità di vedere le stesse falsità urlate dal palco esibite in titoli condivisi all’infinito da amici e familiari.
Se gli utenti di Facebook non sfidano le falsità in rete e nemmeno Facebook non è disposto a farlo, allora chi lo farà?
(Traduzione di Giusy Muzzopappa)
Questo articolo è stato pubblicato su The Atlantic.
This article was originally published on Theatlantic.com. Click here to view the original. © 2016. All rights reserved. Distributed by Tribune Content Agency
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it