• SOCIAL E CENSURA

Facebook e gli "estremisti". Chi controlla il controllore

Iniziativa lodevole, sulla carta: fa riflettere l'ultima policy annunciata da Facebook contro i contenuti e gli utenti estremisti. Se un amico o un parente si avvicina a un gruppo che lo spinge alla radicalizzazione, ti fornisce le dritte su come tirarlo fuori. Il problema è: chi è considerato "estremista"? È lecito che lo faccia una piattaforma social privata?

Primo emendamento: libertà di espressione

La notizia rimbalza dagli Stati Uniti e, sorprendentemente, passa quasi sotto silenzio in Italia, relegata nelle pagine interne dei quotidiani on line. Facebook, dopo aver censurato i profili di capi di Stato come Donald Trump, compiendo azioni di dubbia liceità sul piano del riconoscimento della libertà d’espressione, ora scende in campo ufficialmente contro gli estremismi.

Il social network sta testando nuovi avvisi che metteranno gli utenti in collegamento col supporto e le risorse anti-estremismo, che appariranno quando l’azienda riterrà che l’utente possa conoscere qualcuno vicino a posizioni estremiste o esposto a contenuti estremisti. In altri termini, se un utente rischia di entrare in contatto con punti di vista considerati estremisti verrà allertato e il colosso del web interverrà a suo supporto per marginalizzare quei contenuti, che inevitabilmente verranno poi oscurati. Messa così potrebbe essere anche considerata una battaglia a tutela degli utenti, al fine di evitare loro spiacevoli sorprese. In realtà l’iniziativa è alquanto discutibile perché conferma la spiccata inclinazione di Facebook ad entrare a gamba tesa sulla circolazione dei contenuti.

Un conto sono, infatti, quei messaggi di incitamento all’odio razziale o che integrano gli estremi di reati peraltro già puniti in Italia dal codice penale o comunque censurati dal diritto internazionale, altra cosa sono quei contenuti che alcuni considerano estremisti, ma che in realtà potrebbero non esserlo sotto altre angolature visuali. Ma soprattutto l’interrogativo è sempre lo stesso: può una piattaforma privata arrogarsi il diritto di determinare cosa sia estremista e cosa no? Può in questo caso Facebook maneggiare con disinvoltura un bene pubblico inestimabile come la libertà d’espressione, adottando policy aziendali che riflettono comunque una visione di parte delle griglie di valori e dei parametri valutativi delle condotte dei singoli?

In una dichiarazione rilasciata a The Verge, un portavoce di Facebook ha detto che il test che sta per partire negli Stati Uniti fa parte “di un più ampio lavoro dell’azienda per valutare modi per fornire risorse e supporto alle persone su Facebook che potrebbero essere state esposte a contenuti estremisti o potrebbero conoscere qualcuno che è a rischio”. Facebook ha anche affermato di voler continuare a rimuovere i contenuti estremisti che violano le proprie regole, anche se non sempre questa operazione si è rivelata semplice. La cosiddetta Redirect Initiative dovrebbe quindi aiutare “a combattere l’estremismo violento e le organizzazioni pericolose” in diversi Paesi.

Ma l’esportazione di tale esperimento in altri Stati, Italia compresa, potrebbe essere dietro l’angolo. Lo scopo dichiarato dal social fondato da Mark Zuckerberg è di aiutare gli utenti preoccupati per una persona cara che si stia unendo a un gruppo o a un movimento estremista violento, mettendoli in contatto ad esempio con associazioni di recupero che operano nel settore. La pagina di supporto fornirà anche suggerimenti su come interagire con qualcuno che sta cercando di lasciare un gruppo di questo tipo. Il sospetto, però, che si tratti di un’altra ingerenza di Facebook nell’esercizio del diritto di critica è più che fondato. Negli ultimi giorni, infatti, molti account sono stati bloccati all’improvviso e non era più possibile postare link su di essi. Periodicamente il gigante del web ha rivisto le sue policy interne e ha conseguentemente operato delle censure su alcuni profili. Le ha sempre giustificate in nome della protezione dei diritti degli utenti. Ma tutto questo è democratico? In una democrazia un amplificatore delle opinioni così potente come Facebook può muoversi su un terreno di anarchia e spazzare via d’un sol colpo consolidate garanzie costituzionali e legislative?

Torna d’attualità, allora, il tema della responsabilità giuridica delle piattaforme per i contenuti postati dagli utenti. Se esse si arrogano il diritto di intervenire per limitare i contenuti “estremisti”, vuol dire che intendono valutarli, calibrando l’algoritmo su parametri valutativi predeterminati e allora non possono poi invocare una irresponsabilità giuridica nei casi di lesione dei diritti della personalità altrui, lavandosene pilatescamente le mani e rimandando la palla nel campo degli utenti. Una regolamentazione giuridica internazionale appare, dunque, più che mai necessaria per disciplinare il campo d’azione di questi colossi del web e per proteggere maggiormente i diritti degli utenti dalle loro sempre più frequenti invasioni di campo.

Dona Ora