Facebook, ecco dove vanno a finire i post “sospetti”
Tecnologia

Facebook, ecco dove vanno a finire i post “sospetti”

Il social network rivela per la prima volta la struttura del suo complesso sistema di social reporting. Mettendo a nudo tutte le regole e i meccanismi che presiedono al governo dei contenuti inopportuni

Gestire un social network non è un gioco da ragazzi. Soprattutto se – come nel caso di Facebook – si tratta di tenere d’occhio circa un miliardo di utenti. Vigilare però è necessario: in un’era nel quale il cyber-crimine punta sempre di più verso il mondo delle reti sociali (ricchi di utenti, connessioni e dati confidenziali) non si può più pensare di lasciare il governo dei contenuti alla netiquette o al buon senso degli iscritti. In fondo stiamo parlando del più grande media del pianeta. Più grande persino della BBC, che con il suo World Service raggiunge a malapena 190 milioni di persone.

Pornografia, contenuti violenti o inopportuni, spam, furto di identità e via dicendo: il team di Menlo Park ha il suo bel da fare per cercare di tenere “pulita” la sua piattaforma, o – perlomeno – a distanza di sicurezza dal pericolo. Compito ai limiti dell’impossibile, giacché non si tratta di passare al setaccio 10, 100, 1000 foto o aggiornamenti di stato, ma qualcosa come 2 milioni di report alla settimana.

Per capire come funziona in concreto il servizio di vigilanza del social network più popolare del mondo occorre dare un’occhiata al grafico rilasciato questa settimana da Facebook (clicca qui per ingrandire) che ci mostra com'è organizzato nel dettaglio Social Reporting, il sistema creato nel 2006 per consentire agli utenti di segnalare gli usi e gli abusi dei contenuti che transitano sul sito. Si tratta – come si può vedere – di una struttura altamente complessa fatta di uomini e macchine, ciascuno col suo ruolo specifico.

Facebook-Social-Reporting_emb8.jpg

Alla fine di molte di queste linee di flusso, c'è una persona che deve prendere una decisione su una segnalazione da parte di un utente. Alcune di questi responsi sono binari (si tratta ad esempio di stabilire se una foto contiene o meno del nudo) e vengono rilasciati da un team di specialisti che applica di solito formule e policy semplici e rigorose.

Altre questioni, però, sono decisanente più complesse e vengono spesso demandate all'elaborazione elettronica. Per valutare se un profilo è spam, ad esempio, si utilizzano algoritmi in grado di valutare e incrociare certi parametri sensibili in modo molto più affidabile di quello che farebbe l’occhio umano.

La maggior parte dei report, in ogni caso, viene gestita da un team di uomini senza volto, coloro che - sottolinea The Atlantic - sono di fatto i burocrati, i poliziotti e i giudici dello Stato virtuale (ma nemmeno troppo) di Facebooklandia. A loro spetta un compito delicatissimo: ridurre al minimo le esperienze negative degli utenti ma senza intaccare i principi di apertura e condivisione su cui Facebook ha costruito il suo successo. Il tutto con risorse estremamente limitate rispetto a quelle di una normale Pubblica Amministrazione. A Palo Alto, per dire, lavorano più di 600 persone a tempo pieno per gestire un comunità di 65mila cittadini; con molte meno risorse, Facebook deve gestire quasi un miliardo di persone.

Un sistema di questo tipo, si capisce, è lungi dall’essere perfetto. Ma considerata la complessità della matassa viene quasi da essere tolleranti nei confronti dei piccoli e grandi errori commessi da Facebook in questi anni. In fondo si tratta di creare e gestire regole in modo non molto diverso da ciò che fanno i giudici e i legislatori in una comunità reale.

Chissà si cambieranno idea tutti coloro che oggi attaccano i mezzi utilizzati da Mark Zuckerberg e soci , parlando senza mezzi termini di censura.

Seguimi su Twitter: @TritaTech

I più letti

avatar-icon

Roberto Catania

Faccio a pezzi il Web e le nuove tecnologie. Ma coi guanti di velluto

Read More