Fake-news-apertura
iStock. by Getty Images
Tecnologia

Facebook, a che punto è la guerra alle fake news

Accanto ai post, sotto esame anche foto e video. Ma contro l’oceano sterminato del falso, si rischia di lottare con armi spuntate

Ansiosi di esibire quanto fanno sul serio, in casa Facebook hanno scomodato un premio Oscar: Morgan Neville, regista di documentari che in bacheca ha la statuetta più ambita del cinema. Quattro anni fa raccontava il dietro le quinte dello sconosciuto mondo delle coriste dei concerti, stavolta si è mosso ancora in un backstage: quello degli uffici del social network. Suo compito, mostrare al pubblico come funziona la lotta alle fake news su una piattaforma da due miliardi di utenti, che immettono un miliardo di nuovi contenuti al giorno. In pratica, come rendere vagamente credibili gli effetti di una missione impossibile.

Alla prova dei fatti

Il documentario dura 11 minuti, si chiama «Facing facts», ovvero affrontare i fatti. Che su Facebook spesso si confondono e diluiscono in disinformazione, inganni, falsità. Fesserie clamorose, pompate ad arte per propaganda, altre così raffinate da coltivare dentro chi le riceve il beneficio del dubbio: «Mentre noi inseguiamo l’autenticità. Garantire un’esperienza che sia godibile, duratura e rilevante», come ci spiega dentro una raffica di parole Tessa Lyons-Laing, un passato gomito a gomito con Sheryl Sandberg, l’altro demiurgo di Facebook assieme a Zuckerberg, oggi brillante product manager del news feed, il rullo degli aggiornamenti che leggiamo quando apriamo sito o app di mister Zuck. Assieme alla collega Antonia Woodford, Lyons è in tour in Europa (prima Roma, poi Bruxelles) per raccontare come opera il mix di occhi umani e menti, tante menti di chip, che mira a tamponare e drenare l’emorragia di panzane sul social network.

Governare la complessità

«Sappiamo che sarebbe una pretesa assurda avere fact-checker che controllino manualmente i contenuti vista la loro quantità» rileva giustamente Lyons. Ecco dunque arrivare in soccorso l’automatismo degli algoritmi, i muscoli artificiali del machine learning: sistemi che intercettano storie già smentite e si sono duplicate a dismisura (il falso che piace cova il vizio di riprodursi), non solo a livello testuale, ma, ecco la novità, nel terreno delle foto e dei video. Un punto dirimente: un conto è leggere qualcosa di astruso e figurarselo a livello mentale, un altro è vederlo scorrere sotto i propri occhi. Come raccontavamo qui, manomettere un filmato o un’immagine è oramai un’operazione che richiede competenze amatoriali. Lodevole che Facebook si preoccupi finalmente di queste manipolazioni visive. Che sono pure di contesto: per esempio, una foto di una vecchia tragedia, uno tsunami o uno sbarco di immigrati, associati a eventi attuali per vellicare la rabbia dell’opinione pubblica.

Fake-news-2iStock. by Getty Images

Lentezze e ritardi

Il ricorso della tecnologia è inoltre imprescindibile se si pensa che in Italia i revisori umani non arrivano alla mezza dozzina di addetti. E che i tempi di reazione della piattaforma, per stessa ammissione dei suoi rappresentanti, possano oscillare «da trenta minuti, ad alcune ore, fino a un paio di giorni». Forbice in cui una notizia falsa può essere stata ampiamente letta, digerita, commentata, volentieri condivisa. Come un virus che si sparge. Proprio al momento del contagio è dove Facebook intende mettere la più grossa pezza: una volta acclarata la sua inattendibilità, mostrando contenuti correlati da siti autorevoli o ritenuti affidabili (c’è un punteggio tenuto segreto con cui il sistema valuta l’autenticità delle fonti) che possano indurci a capire che stiamo contribuendo al focolaio di una notizia falsa; invitandoci, con un pop-up, a pensarci due volte prima di mostrarla ad amici e familiari; penalizzando in partenza chi ha dato prova di spargere pattume. Relegandolo alla periferia del news feed, più in fondo del fondo, consentendoci di visualizzarne le notizie solo se siamo compulsivi dello scroll e dunque voyeur dello strano non vero.

La misura dei risultati

Ottime intenzioni, ma funzionano? «I fact-checker indipendenti e autorevoli valutano l’attendibilità delle storie su Facebook, aiutando a ridurre di circa l’80 per cento la diffusione delle storie classificate come false» mette nero su bianco il social network, qui inappellabile e sconfinatamente ottimista fonte di sé stesso. Il machine learning dovrebbe fare il resto: esempio virtuoso di scuola, in Francia ha scovato 1.400 contenuti duplicati di una notizia bollata come fake. Siamo agli inizi: i Paesi coinvolti in questo turbinio operativo sono ancora 14, altri arriveranno entro la fine dell’anno. Se magari non vincerà l’Oscar per la lotta alle notizie false, è evidente che Facebook vuole continuare a correre per il ruolo di miglior attore protagonista.

Per saperne di più

I più letti

avatar-icon

Marco Morello

Mi occupo di tecnologia, nuovi media, viaggi, società e tendenze con qualche incursione negli spettacoli, nello sport e nell'attualità per Panorama e Panorama.it. In passato ho collaborato con il Corriere della Sera, il Giornale, Affari&Finanza di Repubblica, Il Sole 24 Ore, Corriere dello Sport, Economy, Icon, Flair, First e Lettera43. Ho pubblicato due libri: Io ti fotto e Contro i notai.

Read More