Facebook: il mezzo è messaggio. Un'élite selezionerà i contenuti
Facebook rimuove contenuti sulla base di segnalazioni di utenti, o a causa di algoritmi che individuano contenuti offensivi. Adesso Zuckerberg mette in campo una squadra di Vip e professori (progressisti d'alto rango) per "moderare" i contenuti.
Sono passati quasi 2 anni da quando Mark Zuckerberg ha risposto alle domande del senatore Marsh sullo scandalo di Cambridge Analytica con un quasi-divertito: «We run ads, senator», che evoca risposte simili in altre circostanze (come un laconico «we are just a platform», ad esempio). Solo tecnologia, sostenuta da contenuti sponsorizzati dalle aziende che vivono di microtargeting e di profilazione massiccia degli utenti. In questi giorni però c’è stato un passo avanti: l’azienda capitanata dal trentaseienne di White Plains, a nord di New York, ha selezionato i primi venti membri della task force volta a decidere quali contenuti rimuovere dalla piattaforma.
È la Facebook Oversight Board, bellezza, un gruppo indipendente di 20 persone che deciderà quali contenuti possono essere pubblicati e quali no. A detta di Kate Klonick, professoressa di legge alla St. John’s University, stiamo assistendo a un momento storico davvero senza precedenti. È la prima volta, infatti, che una multinazionale privata assegna volontariamente parte delle sue politiche di gestione dei contenuti a un corpo esterno alla società. Un corpo composto principalmente da persone che di legge ne sanno, la studiano, ci portano a casa il pane con cui sfamano i figli. Il board è guidato da Thomas Hughes, prima a capo di Article 19, una no-profit inglese.
C’è Jamal Greene, professore di diritto costituzionale alla Columbia e fratello del rapper Talib Kweli, e Michael McConnell da Stanford (e con conoscenze nell’élite della Silicon Valley grazie alla sua rappresentanza in Wilson Sonsini). Abbiamo poi Helle Thorning-Schmidt, ex primo ministro danese ed ex CEO di Save the Children e Catalina Botero-Marino, avvocato colombiano e professoressa di legge (sue le parole: «Questo board è decisamente meno peggio che lasciare a Facebook la libertà di moderare da sola i contenuti»).
La storia del rapporto fra Facebook e libertà d’espressione fa i suoi esordi sin dai primordi del 2016, anno in cui è stata contestato alla società di Palo Alto di aver lasciato a terzi la possibilità di usufruire i propri dati a piacimento. Gli stessi furono poi usati per il microtargeting degli elettori durante la campagna elettorale che ha visto primeggiare il repubblicano Donald Trump su Hillary Clinton. Una storia risaputa, ormai caso di studio, quella di Cambridge Analytica, ma che pare non avere fine e che costringe Mark Zuckerberg ad armarsi di ogni scudo possibile. Intanto, però, i nodi vengono al pettine, e i cortocircuiti dell’azione di Facebook diventano evidenti. Non a caso Zuckerberg ha dovuto rispondere dell’operato dei contenuti sulla sua piattaforma a diverse voci, tra cui quella della dem Ocasio-Cortez il 23 ottobre dello scorso anno. Di fronte alle incalzanti domande della rampolla del Bronx, il teso Mark ha dovuto ricordare che sono i lettori che devono essere capaci di dirimere la verità dalla menzogna, e non deve egli arrogarsi il diritto di censura.
Un diritto che, di fatto, già si prende, ed è normale sia così. Ma lo fa in modo subdolo. I contenuti che fino ad oggi Facebook epurava erano quelli che ricevevano più “segnalazioni” da parte degli utenti, o che venivano selezionati direttamente dall’algoritmo come offensivi, pornografici ecc. Anche seguendo eventuali richiami politici, come quello di Adam Schiff, membro della Camera dei Rappresentanti della California, che lo scorso febbraio ha invitato Zuckerberg ad intraprendere un’azione censoria nei confronti di contenuti no-vax. O ancora, la decisione di dirottare i contenuti relativi al coronavirus alle sole fonti dell’OMS, riducendo l’appeal algoritmico degli altri contenuti.
È un mix tra abilità tecniche, censorie ed etiche, e Facebook non può nascondersi dietro al muro del “we run ads”. Come già diceva il filosofo Marshall McLuhan, “il mezzo è il messaggio”, e Facebook, con i suoi dati, i suoi algoritmi, i suoi server, la sua potenza interattiva in-forma il messaggio, può decidere cosa può comparire nel feed dei suoi utenti e cosa può restarne fuori, amplificando o smorzando di volta in volta la “camera dell’eco” tipica di qualunque sistema di contenuti customizzati (si legga Eli Pariser) ed ergersi a Grande Fratello. Può farlo, non è detto lo faccia, è plausibile che lo abbia sperimentato con sé stesso in passato, è probabile che nel futuro ne vedremo delle altre, di cose interessanti. Facebook è il messaggio: che sia quello di Zuckerberg o di una élite esterna di intellettuali, tale rimane. E sarà sempre così.