Il tribunale di Facebook

Read More

Immersi in una dimensione compiutamente digitale e social, abbiamo consegnato per “adesione”, per “silenzio assenso”, le regole sui limiti della più preziosa delle nostre libertà – la parola – a un gigante dalla natura anfibia, Facebook, che disciplina la dimensione pubblica, quale è quella di un’Agorà planetaria, in nome di prassi aziendali di diritto privato. Il gigante decide quale post vada rimosso e quale reintegrato. Chi meriti la damnatio memoriae del “bando” dallo spazio della discussione digitale (il caso Trump) e dove vada tracciato il confine tra discorso politico e discorso d’odio. Quali immagini configurino il diritto di cronaca e quali il compiacimento dell’osceno. A decidere, a fare giurisprudenza, a coniugare l’enorme spazio tra il Pantheon della difesa dei diritti fondamentali dell’individuo e l’individuale e asettica elencazione di “standard di adesione continentale al servizio FB”, è un tribunale “misto”. Composto dagli algoritmi delle macchine settate da Facebook che sorvegliano il social in tempo reale, dalla soggettività malpagata di moderatori umani e – dal 2020 – da un “Oversight Board”, un Comitato, una Corte Suprema della libertà di parola digitale, composta da giudici selezionati e finanziati dallo stesso Facebook. Abbiamo raccolto ed esaminato i sedici casi sin qui decisi dal “Board”, intervistato chi del “Board” fa parte, sollecitato le voci di alcuni tra i più autorevoli osservatori e studiosi della rete. Cercando di dare un nome a chi, come, dove e perché, è oggi il giudice ultimo del nostro discorso pubblico globale.

Il Comitato

Il primo caso in assoluto (battezzato con sigla 2020-001-FB-UA) aveva quale oggetto il commento di un utente di Facebook. Si trattava dello screenshot di due tweet dell’ex primo ministro malese, Mahathir Mohamad, in cui il politico sosteneva che “i musulmani hanno il diritto di essere arrabbiati e uccidere milioni di francesi per i massacri del passato”, che “in linea di massima i musulmani non hanno applicato la ‘legge del taglione”, ma che “devono farlo”, “al contrario dei francesi che invece dovrebbero insegnare ai propri connazionali il rispetto per i sentimenti delle altre persone”. Il social rimosse quel post perché violava, a suo avviso, la normativa contro l’incitamento all’odio. Tuttavia, secondo l’utente che lo aveva pubblicato il commento serviva a far conoscere le “orribili parole” dell’ex premier. Non si arrivò a una ‘sentenza’. La procedura decadde perché fu lo stesso autore a eliminare il contenuto. 

Dunque, una partenza a singhiozzo per l’Oversight Board (Ob), in italiano Comitato di controllo, l’organismo indipendente e autonomo che Facebook – l’azienda fondata da Mark Zuckerberg e che oltre al social più diffuso al mondo possiede anche Instagram e WhatsApp – ha deciso di istituire nel 2020 per “supportare il diritto alla libertà di espressione delle persone” sulla piattaforma, ovvero intervenire sui casi in cui il social ha cancellato un post ma senza averne il diritto o in assenza di presupposti. Per dirla in altre parole, una Corte Suprema indipendente (benché finanziata dalla multinazionale californiana con 130 milioni di dollari attraverso una fondazione che ne dovrebbe garantire l’autonomia) modellata sul sistema giudiziario statunitense e che sta per compiere il suo primo anno di attività. A comporre la Corte, un gruppo di esperti che ha il compito di selezionare pochi casi ad alto valore simbolico e di particolare complessità destinati a diventare “giurisprudenza” interna al social, confermando o revocando decisioni di rimozione dei post normalmente assunti dai sistemi di controllo automatizzati predisposti da Menlo Park, il campus di Facebook.

Nelle decisioni del Comitato di Controllo trovano, o dovrebbero trovare, una sintesi diritti fondamentali e potenzialmente confliggenti con le “norme di utilizzo” standard del social (ci riferiamo a quelle pagine e pagine di ‘contratto’ che ogni utente è costretto a sottoscrivere all’atto di iscrizione e che nessuno legge davvero). Per questo, il Board, nelle sue sentenze, utilizza quali criteri decisori anche elementi di contesto. Quali la cornice politica, sociale e culturale del Paese dove il contenuto è stato creato, con lo scopo di suggerire modifiche agli “standard” che il social impone nei diversi continenti. Insomma, una sorta di giurisprudenza sovranazionale applicabile in qualunque angolo di mondo ci sia un post cancellato, un commento eliminato, un contenuto controverso. In modo tale da mettere al riparo i top manager di Facebook dalle continue polemiche, e delle troppe responsabilità, che inevitabilmente accendono sul social le dinamiche dell’informazione, della censura, della violenza, dell’hate speech. 

Chi sono i membri dell’Oversight Board

Il migliore dei mondi possibili?

“Il Comitato di Facebook? Nel migliore dei mondi possibili, avremmo dei comitati di controllo multilaterali sotto l’egida della Nazioni Unite”, racconta Helle Thorning-Schmidt a Repubblica. “Ma non credo sia una soluzione dietro l’angolo. Dunque, avere un Oversight Board indipendente come quello attuale è la seconda scelta migliore che si poteva fare”. Thorning-Schmidt è stata la prima donna a guidare la Danimarca fra il 2011 e il 2015. Ed è stata anche parlamentare europea fra le file dei socialdemocratici, consulente sindacale e direttrice di “Save the Children” subito dopo aver dato le dimissioni da primo ministro. Da ottobre del 2020, è uno dei quattro copresidenti del Comitato per il controllo di Facebook. L’organismo che dirige appartiene a una nuova specie anfibia. Segnata dall’ambivalenza, propria di tutti i social network, considerati da un lato assimilabili ai servizi pubblici (essendo la piazza principale del dibattito sociale e politico), ma dall’altra governati da un diritto privato.  

“Il Comitato si avvale del proprio giudizio indipendente per supportare il diritto alla libertà di espressione delle persone e assicurarsi che tali diritti siano adeguatamente rispettati”, si legge nella dichiarazione di intenti dell’Oversight Board. “Le decisioni del Comitato di confermare o annullare le misure sui contenuti adottate da Facebook saranno vincolanti, nel senso che Facebook dovrà implementarle, purché tale applicazione non violi la legge”.

Zuckerberg e Facebook: 5 anni vissuti pericolosamente

Mark Zuckerberg, dopo gli scandali scoppiati a partire dalle elezioni presidenziali americane del 2016, ha prima negato l’impatto della propaganda politica sulle sue piattaforme, per poi correre ai ripari e ammettere gli errori fatti. Davanti al Congresso americano e in seguito in audizione al Parlamento Europeo, si è scusato. Non aveva molta scelta. Era del resto il 2018, l’anno dell’affaire Cambridge Analytica. L’Oversight Board venne concepito poco dopo e una parte del merito va a una serie di nuove figure chiamate da Facebook per evitare che certi passi falsi non si ripetessero. Zuckerberg si era reso conto della propria inadeguatezza e di quella dei suoi manager nel maneggiare materie complesse e dai risvolti politici potenzialmente planetari, come il tentativo russo di condizionare le presidenziali che portarono alla Casa Bianca Donald Trump.  

“Non è l’attuale classe dirigente dei social network a stabilire cosa leggi sulla tua pagina Facebook, su Twitter o quando fai una ricerca attraverso Google”, aveva commentato a Repubblica Ev Williams a novembre del 2018, durante lo scandalo di Cambridge Analytica. Insieme a Jack Dorsey, Noah Glass e Biz Stone, Williams è il cofondatore di Twitter che ha in seguito lasciato per creare la piattaforma Medium. Dice: “Assicurare risultati imparziali è l’obiettivo di questi servizi, non credo affatto ai sospetti di manipolazione o discriminazione. E francamente non conosco nemmeno persone migliori per gestire queste aziende rispetto a quelle che le guidano. Altro discorso è l’enorme concentrazione di potere in forma di dati, un problema che va preso molto sul serio”. Ma a Facebook non la pensavano così e nemmeno all’esterno. La compagnia di Zuckerberg si trovava sulla graticola e non voleva restare passiva rispetto alla scrittura di nuove regole che avrebbero riguardato i social network negli Stati Uniti come in Europa. Regole più volte chieste da Zuckerberg probabilmente per arrivare ad una condivisione delle responsabilità. 

Nick Clegg venne così assunto come vicepresidente degli affari globali e della comunicazione sempre nel 2018. Ex parlamentare europeo ed ex vice-premier britannico ai tempi di David Cameron, Clegg ha un profilo più raffinato, per usare un eufemismo, di quel management un po’ sempliciotto figlio della Silicon Valley che aveva affiancato Zuckerberg prima del 2016. Lo stesso discorso vale per Noah R. Feldman, professore di legge ad Harward e per l’avvocato Brent C. Harris, entrambi coinvolti nella nascita del Comitato di controllo che ha iniziato ad operare solo nel 2020.

La legge di Facebook. Cosa si può scrivere e cosa no

Dal momento in cui è diventato operativo, dicembre 2020, il Comitato ha giudicato 16 casi controversi. Altri tre sono in esame, ma le richieste di intervento sono nell’ordine delle 500mila. “Siamo in venti nel Consiglio e interveniamo solo una piccola frazione dei casi che le persone ci sottopongono”, spiega Thorning-Schmidt. “Scegliamo quelli più rappresentativi in modo che possano funzionare come precedenti ai quali poi fare riferimento”. Siamo andati dunque a rileggere quelle 16 decisioni una ad una, saltando da un continente all’altro, dando conto anche del background culturale del Paese in cui quel post nasce. 

Con la decisione 2021-002-FB-UA, pubblicata lo scorso aprile ma risalente al dicembre precedente, si vola nei Paesi bassi. Il Comitato di controllo ha in quel caso confermato la decisione di rimuovere un contenuto che violava il divieto esplicito di pubblicare caricature di persone nere sotto forma di blackface. L’ambito era quello dell’incitamento all’odio, secondo quanto previsto dagli Standard della community. Si trattava di un breve video con protagonista un bambino e tre adulti: uno vestito come “Sinterklaas” (San Nicola) e due vestiti come “Zwarte Piet”, conosciuto anche come “Pietro il Moro”. I secondi due avevano il viso dipinto di nero e indossavano parrucche afro sotto cappelli e vestiti rinascimentali. Tutti i personaggi del video erano ovviamente attori bianchi. Accompagnato da una musichetta di sottofondo, uno dei personaggi raffiguranti Pietro il Moro diceva al bambino: “Guarda qua, ho trovato il tuo cappello. Vuoi indossarlo? Sembrerai davvero Pietro il Moro!”. Da decenni il personaggio folkloristico di Zwarte Piet, che compare nella notte tra il 5 e il 6 dicembre nei panni di un servo moresco come aiutante di San Nicola, è al centro di polemiche per la pratica del blackface. Tradizione o no, secondo la maggioranza del Comitato consentire post del genere su Facebook contribuirebbe alla creazione di un ambiente discriminatorio per le persone nere, un contesto degradante e dannoso. Per questo la rimozione del contenuto è stata ritenuta coerente con le responsabilità dell’azienda in materia di diritti umani. Aggiungendo tuttavia la necessità di informare in modo più appropriato gli utenti – cosa che in quel caso non era stata fatta – sulle ragioni dettagliate della rimozione. 

Anche in un altro caso, risalente a novembre 2020 (2020-003-FB-UA), la decisione di Facebook è stata confermata. Si trattava della cancellazione di un post contenente un’offesa denigratoria e, di nuovo, legata all’incitamento all’odio: un utente aveva infatti pubblicato alcune foto storiche di chiese nella città di Baku, in Azerbaigian. Tuttavia, il testo di accompagnamento, in russo, sosteneva che gli armeni avessero edificato Baku e che questo patrimonio, comprese le chiese, fosse stato distrutto. Il tutto condito dall’uso di un termine spregiativo per gli azeri, considerati popolo nomade e senza storia, rispetto agli armeni. Il post aveva quale cornice il conflitto fra Armenia e Azerbaigian per la regione del Nagorno-Karabakh, di cui l’utente chiedeva il riconoscimento del nome armeno (Artsakh). In quel caso pochi dubbi, a quanto pare. Secondo il Comitato il post usava un termine denigratorio per descrivere un gruppo di persone sulla base di una categoria protetta, cioè della nazionalità. Un’analisi linguistica commissionata dal Board ha approfondito il significato di “taziki”, scoprendo che può anche essere inteso anche come gioco di parole basato sul termine russo “aziki”, un’espressione dispregiativa nei confronti degli azeri inclusa nella lista interna di termini offensivi di Facebook.

Sempre all’Armenia fa riferimento un’altra decisione (2021-005-FB-UA), con un meme sul genocidio armeno del 1915-16. I due pulsanti del celebre meme “Daily Struggle” riportavano in inglese le frasi “Il genocidio armeno è una bugia” e “The Armenians were terrorists that deserved it” (“I terroristi armeni lo hanno meritato”). In quell’occasione Facebook aveva rimosso il post mentre il Comitato ha ordinato di ripubblicarlo, spiegando che quel contenuto rientrava in un’eccezione. Anzi due. Quella di pubblicare post che sembrano incitare all’odio ma in realtà l’obiettivo è la sensibilizzazione e la satira. Il post, insomma, non derideva le vittime del genocidio ma criticava il negazionismo diffuso nella Turchia contemporanea, che rifiuta ogni allusione al genocidio e contemporaneamente sostiene che le vittime se lo sono meritato.

Il CEO di Facebook Mark Zuckerberg davanti alla Commissione Giustizia del Senato a Capitol Hill.10 aprile 2018, Washington D.C. 
Un altro meme è stato invece al centro della decisione 2020-007-FB-FBR. In questo caso il Comitato ha revocato la cancellazione di un post con un’immagine di una serie tv turca raffigurante un combattente, la didascalia “Se la lingua del Kafir (non musulmano, nda) si scaglia contro il Profeta, allora la spada deve essere tirata fuori dal fodero” e definizioni del presidente francese Emmanuel Macron come “il diavolo”. Era la fase di boicottaggio dei prodotti francesi dopo alcuni provvedimenti dello scorso autunno sul controllo ai finanziamenti alle moschee e all’educazione in Francia. A leggere bene, tuttavia, la posizione del Comitato sembra in questo caso piuttosto confusa: “Anche se il personaggio della serie televisiva ha una spada – si legge nella motivazione – la maggioranza del Board ha infatti interpretato il post come una critica alla risposta di Macron nei confronti della violenza di matrice religiosa, invece che come forma di istigazione alla violenza”. La critica politica quindi è concessa, anche se borderline, visto che allude alla violenza. Qui la libertà di espressione sembra averla vinta, a differenza del caso azero visto sopra. 

“Facebook è stata la prima ad affidare ad un organo esterno le decisioni più critiche riguardo ai contenuti che ospita”, sottolinea Thorning Smith mettendo in evidenza gli aspetti migliori del progetto. “La mia speranza è che altre piattaforme facciamo lo stesso o che l’Oversight Board sia chiamato a decidere non solo per quel che riguarda Facebook e Instagram. Non si tratta di sostituirsi alle leggi vigenti nei vari Paesi, ma di avere una garanzia aggiuntiva sulla moderazione. È la prima volta che accade”. Tutte le decisioni prese dal Comitato di controllo si basano, o meglio hanno come riferimento, il rispetto e la difesa dei diritti umani. Normativa che fra il 1966 e il 1967 è andata oltre la Dichiarazione Universale con un ‘corpus’ di leggi che impegna gli Stati firmatari. Nel caso dell’Oversight Board ci si concentra ovviamente sulla libertà di espressione che però ha molte sfumature e incrocia le regole interne della piattaforma di Facebook che vieta ad esempio espressioni di odio. Tutti i casi sottoposti al Comitato di controllo sono l’esito di una selezione di sotto-comitati formati da cinque dei venti membri dell’OB. Queste sottocommissioni si dividono le controversie in base all’area di competenza e cominciano la discussione. Se fra le pratiche ne trovano una che ha implicazioni per una parte consistente degli utenti di Facebook e Instagram o una rilevanza simbolica, la discutono con l’intero Comitato.  

“Libertà”

Fra i primi casi affrontati dal Comitato, uno è in Myanmar (2020-002-FB-UA). Anche qui, come nella maggior parte delle decisioni, il Comitato ha deciso di annullare la scelta di Facebook. Il 29 ottobre 2020 un utente aveva pubblicato un contenuto all’interno di un gruppo in lingua birmana. Il post includeva due fotografie ampiamente diffuse che ritraevano il corpo di Aylan Kurdi, il bambino curdo-siriano di tre anni annegato nel tentativo di raggiungere l’Europa nel settembre del 2015. Il testo di accompagnamento sosteneva che ci fosse qualcosa di sbagliato nei musulmani dal punto di vista psicologico o nella loro mentalità. Non solo: il post contestava la mancanza di risposte da parte dei musulmani in generale di fronte al trattamento dei musulmani uiguri in Cina. Il contenuto concludeva che gli eventi recenti in Francia avevano limitato il senso di compassione dell’utente nei confronti del bambino rappresentato in foto e sembrava infine insinuare che il piccolo Kurdi sarebbe potuto diventare un estremista, una volta cresciuto. Facebook aveva rimosso il contenuto, il Comitato ha invece ordinato di ripubblicarlo considerando che il pensiero andasse letto nella sua interezza e in ragione di una traduzione diversa del testo. Quel contenuto è stato definito offensivo ma non in grado di incitare all’odio perché secondo gli esperti poteva “essere meglio inteso come commento sull’apparente incongruenza tra le reazioni di musulmani agli eventi in Francia e in Cina”. 

Aylan Kurdi. 2 settembre 2015, Bodrum, Turchia 
Sempre in Myanmar, una giuria del Comitato ha revocato (2021-007-FB-UA) un’altra decisione del colosso californiano: un utente, all’interno di un ampio ragionamento sul finanziamento a un gruppo di opposizione al regime militare, si riferiva anche al popolo cinese come “fottuti cinesi”, almeno nella traduzione analizzata da Facebook che appunto ritenne di eliminare il contenuto perché avrebbe incitato all’odio contro un’intera popolazione. Secondo il Comitato, invece, è sempre questione di contesto: la parte del post ritenuta contraria alle regole si riferiva alle politiche finanziarie cinesi a Hong Kong, definendole “torture” (torture) o “persecution” (persecuzioni) e non alle azioni di individui o cittadini cinesi in Myanmar. Altra marcia indietro imposta a  Zuckerberg e dei suoi meccanismi automatici di controllo. Se sull’incitamento all’odio e sul razzismo il Board sembra aver tenuto una linea di fermezza, come visto nelle decisioni elencate sopra, il background culturale del Comitato, in maggioranza composto da occidentali, è evidente in quasi tutte le decisioni relative alla libertà di parola in senso stretto, soprattutto quando esercitata in materia politica. Forse l’unica eccezione, celebre, è quella relativa alla sospensione del presidente Trump. Ma questo lo vedremo dopo.

Nella decisione 2020-005-FB-UA, infatti, una (presunta) citazione di Goebbels, ministro della propaganda del regime nazista, prima rimossa, è stata ripristinata dal Comitato: la frase, in inglese, affermava che, invece di appellarsi agli intellettuali, le discussioni dovrebbero fare leva sulle emozioni e sugli istinti. Sosteneva che la verità non è importante ed è subordinata alle tattiche e alla psicologia. Niente foto né simboli nazisti. Nel suo ricorso dopo la cancellazione l’utente ha specificato di voler creare un parallelo tra il concetto espresso dalla citazione e la presidenza di Donald Trump. Secondo il Comitato i commenti al post contribuivano a chiarire questo intento (che non era di apologia del nazismo ma appunto di critica nei confronti dell’ex presidente Usa) e in generale ha ritenuto le regole su questo punto – persone e organizzazioni pericolose – poco chiare, evidenziando una discrepanza fra quelle pubbliche e le prassi e i prontuari assegnati ai moderatori umani. Cosa significano elogio, supporto e rappresentazione, si domandano i “giudici”? 

Nuova obiezione, stavolta su bullismo e intimidazione (decisione 2021-004-FB-UA): secondo la “Corte superma” di Facebook il commento in cui un utente veniva definito “cowardly bot”, un bot codardo, da un sostenitore del leader dell’opposizione russa Alexei Navalny (attualmente in carcere) non fosse da eliminare. Anzi: la rimozione rappresentava una limitazione sproporzionata. Per il Comitato rimozioni di questo tipo smarriscono il contesto generale e mutilano in modo profondo la libertà di espressione degli utenti: “Facebook era consapevole del contesto più ampio delle proteste a sostegno di Navalny in Russia e sarebbe stato necessario analizzare il contenuto con maggiore cautela e attenzione” riporta l’archivio delle decisioni. 

 

Quando anche Facebook ci ripensa (ma al Board non basta)

Accade che Facebook riconosca l’errore e provi a correre ai ripari. Ma il Comitato, ritenendo spesso i casi estremamente significativi di ciò che non funziona nei sistemi di moderazione, decide di affrontarli comunque. Come con la decisione 2021-006-IG-UA: lo scorso gennaio un utente statunitense, su Facebook, invitava a discutere del rigido regime di isolamento di Abdullah Öcalan nella prigione sull’isola di Imrali, in Turchia: Öcalan è uno dei membri fondatori del PKK curdo, ritenuto soggetto pericoloso dal social proprio come la sua organizzazione. L’utente invitava i lettori a partecipare a un dibattito sulla detenzione del leader del Pkk e sulla natura disumana dell’isolamento carcerario. Instagram, aveva rimosso il post. Il Comitato ha invece ordinato di ripubblicarlo, visto che la nuova normativa aggiornata al 2018 consente la discussione sulle condizioni di detenzione di singoli individui considerati pericolosi. Ma la stessa Facebook si era persa quel pezzo per strada, implementando un nuovo sistema di controllo nel 2018. 

Rimanendo in ambito di persone e organizzazioni classificate come pericolose, nella decisione 2021-003-FB-UA il Comitato ha criticato fortemente Facebook per aver eliminato e sospeso l’account di un utente che aveva condiviso un’intervista video in cui un esperto si diceva preoccupato della sorte della minoranza sikh in India. In particolare, delle possibili azioni dell’organizzazione nazionalista indù Rashtriya Swayamsevak Sangh (RSS) e del Bharatiya Janata Party (BJP), il partito del primo ministro Narendra Modi al potere in India. Nel testo del post, l’utente spiegava che la RSS stava minacciando attacchi violenti contro il gruppo della minoranza religiosa sikh in India, come era avvenuto durante il massacro del 1984. Anche in questo caso il social era già tornato autonomamente sui suoi passi, mossa che non ha evitato la reprimenda del Comitato, secondo il quale è fondamentale che la piattaforma adotti misure per evitare errori che limitano la libertà di espressione, nel caso specifico di una minoranza e dell’opposizione in India.

L’ultima decisione in ordine di tempo è recentissima (2021-009-FB-UA) e conferma invece la scelta di Facebook su un post legato alle minacce da parte delle Brigate Izz al-Din al-Qassam, ala militare del gruppo palestinese di Hamas che controlla la striscia di Gaza. In questo caso, il Board concorda con la decisione del social di ripubblicare il post in questione dopo aver riconosciuto un errore commesso da due moderatori. Fra l’altro, conferma perfino una funzione di “moral suasion” del Comitato: è bastato che gli esperti selezionassero questo caso per spingere Facebook, prima ancora della decisione, a rimettere online il contenuto.  

Si trattava di un testo in arabo e di una foto pubblicati dalla pagina ufficiale di Al Jazeera Arabic e condivisi da un utente in Egitto. Era l’ultimatum di Hamas che il 10 maggio dava tempo fino alle 18 (le 17 in Italia) all’esercito israeliano per allontanarsi dalla moschea di al-Aqsa e dal quartiere di Sheikh Jarrah a Gerusalemme, da sempre al centro di tensioni e in quei giorni in modo più grave. L’utente aveva solo aggiunto una parola – “Ooh” in arabo – al post della testata. Nonostante Hamas e il suo portavoce facciano parte dell’elenco di persone e organizzazioni pericolose si trattava di niente più che una notizia di cronaca, rimuovendo la quale Facebook aveva commesso un errore. Il Board conclude tuttavia che su questo genere di argomenti, e nello specifico sul conflitto israelo-palestinese, serve un’analisi più approfondita e indipendente. 

“Troppo debole e troppo americano”

Per Jeff Jarvis, giornalista, fondatore del blog “BuzzMachine”, scrittore (l’ultimo libro è Gutenberg the Geek) e professore alla Graduate School of Journalism della City University di New York, il Comitato è stato concepito strutturalmente bene ma con un mandato troppo debole e destinato a perdersi dietro casi troppo specifici. “Il Board agisce come una Corte che deve interpretare delle leggi, ma le uniche leggi a cui può fare riferimento sono di rango normativo molto basso. Il Comitato si muove tra gli standard della community di Facebook e i principi dei diritti umani. È una forbice enorme, che non considera tutto quello che c’è nel mezzo”. Gli standard della community di Facebook sono, appunto, decisi da Facebook e non sono condivisi. “Mi piace l’idea di un patto, perché è una dichiarazione di responsabilità reciproca e un obbligo. Un patto di obbligo reciproco direbbe: ecco cosa vi potete aspettare da noi e quello che ci aspettiamo da voi. Ed ecco perché. Il “perché” adesso manca”. 

“Le decisioni prese finora da Facebook oscillano tra l’ossessione di non apparire censorie e la parzialità culturale e geografica. L’Oversight Board non è stato particolarmente efficace. Ha degli aspetti positivi ma non appare del tutto indipendente, pieno com’è di americani e di personalità vicine ad organizzazioni americane. Non ha quell’approccio globale che pretendeva di avere”, osserva invece Jillian York, autrice di Silicon Values: The Future of Free Speech Under Surveillance Capitalism e responsabile per la libertà di espressione internazionale della Electronic Frontier Foundation. Le decisioni che hanno adottato sui casi che non riguardavano gli Stati Uniti sono state buone, corrispondenti ai principi di difesa dei diritti umani a cui avevano promesso di fare riferimento. E hanno espresso raccomandazioni piuttosto forti sulle linee guida dei contenuti e della moderazione. Ma tutte queste decisioni corrispondono a quello che la società civile, gli attivisti, dicono da anni. Facebook paga questo Board milioni di dollari per sentirsi dire esattamente le stesse cose. Perché non hanno ascoltato prima gli esperti?”. “Sono deluso delle delusioni del Board finora”, osserva Jarvis. Per esempio, “hanno permesso che tantissima disinformazione sulle cure contro Il Covid fosse rimessa online perché non violava gli standard di pericolo imminente. Una pessima decisione. Forse sarà la paura di essere visti come censori, ma il tono delle delibere è stato finora quasi di estremismo libertario”. 

Kate Klonick: “Il Board ha portato una ventata di trasparenza su Facebook”

Kate Klonick, docente alla St. John’s University Law School di New York, ha seguito la nascita e lo sviluppo dell’Oversight Board. Qui analizza, ad un anno dall’inizio dei lavori, l’operato del Comitato. Intervista di Viola Stefanello

 

Covid, “Libertà è anche disinformare: dipende dalle conseguenze”

Le decisioni del Board cui fa riferimento Jarvis sono due. Sulla pandemia e l’infodemia che ne è stata la conseguenza. Sui social lo abbiamo visto tutti: un flusso continuo di informazioni e contenuti falsi o (peggio) sul crinale scivoloso della manipolazione. Gli esperti del Comitato nei due casi si sono schierati dalla parte della libertà di parola, facendo dei distinguo intorno al principio di “danno imminente”. Vediamo. 

In uno dei due casi (2021-008-FB-FBR), sia Facebook che il Comitato hanno concordato che andasse lasciato online un post in cui un consiglio medico statale del Brasile si è scagliato contro l’efficacia dei lockdown per contrastare i contagi. Una misura che sarebbe responsabile anche di un aumento dei disturbi mentali. Pur ribadendo tuttavia l’adeguatezza di altre misure, dal distanziamento alla vaccinazione. L’aspetto interessante è che in questa occasione è stato Facebook a chiedere un’opinione al Comitato. Anche se contiene alcune informazioni imprecise (come le dichiarazioni di alcuni esperti, riportate in modo scorretto), quel contenuto non desta rischio di danno imminente. Ma anche in questo caso non è mancata una tirata d’orecchi al social: dovrebbe segnalare con priorità ai suoi partner per il fact-checking questo genere di contenuti di modo da fornire loro, anche se rimangono online, link e contesto aggiuntivo che possa circostanziare meglio alcuni passaggi distorti.

Sempre sul Covid, con la decisione 2020-006-FB-FBR, il Comitato ha infine revocato la decisione di Facebook: un utente criticava la strategia sanitaria del governo francese, accusando in particolare la locale agenzia del farmaco di aver promosso l’uso di un farmaco (Remdesivir) bocciando invece l’impiego di un mix di idrossiclorochina e azitromicina come trattamento per la malattia. Per Facebook quel video e quelle parole costituivano disinformazione e rischio di danno imminente. Quelle parole davano per certa l’esistenza di una cura a Covid-19 quando questa, per ora, non c’è. Per il Comitato non c’era invece troppo da preoccuparsi: per procurarsi quei farmaci serve una prescrizione medica, ad esempio, e Facebook avrebbe potuto scegliere uno strumento meno invasivo (il solito rimando a link di approfondimento garantiti) al posto della cancellazione netta del contenuto. Anche in questo caso, gli esperti indipendenti hanno fatto notare la poca chiarezza delle regole sui contenuti consentiti o meno: sulla disinformazione il social deve fare ancora passi in avanti.

Tutti i limiti del Comitato

Dal punto di vista di chi studia il rapporto tra mondo digitale e società civile, diritti umani e libertà d’espressione, il Board è stato poco più di un inizio, incompleto e deludente. Esito forse inevitabile. Nel suo primo anno di vita si è trovato ad affrontare disinformazione sanitaria e razzismo, nudi e religione. E la spinosa questione del “deplatforming”, della cancellazione dai social, di Donald Trump, su cui si è andata a scontrare forse tutta l’inadeguatezza della sua struttura. “Faccio fatica ad immaginare che un Comitato del genere, anche sotto l’ombrello delle Nazioni Unite, possa davvero elaborare una serie di standard legali che soddisfino tutti, ovunque”, spiega Ethan Zuckerman. Ex direttore del Mit Center for Civic Media fino a maggio 2020, ora passato alla University of Massachusetts, Zuckerman è da sempre uno degli osservatori più attenti della politica e dell’informazione nell’era del digitale.  

“Anche mettendo da parte evidenti ostacoli come le legislazioni di Stati teocratici, ci sono frizioni difficili da risolvere come la tensione tra i diritti alla privacy nell’Unione europea e i diritti all’informazione negli Stati Uniti. Tendo a pensare che un modello migliore potrebbe essere quello basato su molte più piattaforme digitali di quelle che abbiamo ora. Bisognerebbe invece avere un sistema che consenta di passare senza problemi dalle conversazioni con vecchi amici di scuola su Facebook ad altri luoghi dove invece affrontare discussioni su problematiche civiche o locali che riguardano il quartiere nel quale viviamo, fino a conversazioni private con altre persone che magari convivono con il diabete, come capita a me. Secondo i casi, alcune di questi spazi digitali potrebbero essere moderati da professionisti, altri verrebbero gestiti direttamente dagli utenti”. È un modello, sostiene Zuckerman, che non è pensato per limitare la libertà di espressione quanto per contestualizzarla. Perché un discorso accettabile in una certa comunità potrebbe non esserlo in un’altra. Una struttura del genere comporterebbe però una divisione in aree tematiche e di conseguenza un rigido controllo di quel che viene scritto, come avviene sui forum.  

Shoshana Zuboff, accademica della Harvard Business School e autrice de Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, uno dei volumi di riferimento per la corrente di pensiero critica nei confronti della Silicon Valley, la pensa in maniera diversa. “Mark Zuckerberg e i suoi colleghi dovrebbero smettere di raccogliere dati sulle persone e bisognerebbe bloccare gli algoritmi che mettono mano alle bacheche degli utenti promuovendo il peggio delle discussioni e portandole al centro del dibattito pubblico. Bisogna cambiare ‘l’ingegnerizzazione che è alle spalle di tutto e che ha portato a realizzare profitti economici enormi in maniera del tutto illegittima”, aveva raccontato a Repubblica all’indomani del caso Trump.

“Regolare il discorso sul Web non significa impedire la libertà di parola. In uno spazio pubblico di discussione l’odio, come la disinformazione palese e le manipolazioni, rimarrebbero ai margini. Al centro avremmo avuto posizioni diverse, anche contrapposte, ma ragionevoli. Ciò che abbiamo visto in questi anni invece è altro, addirittura tesi che accusavano membri del Partito democratico di essere parte di un’organizzazione mondiale di pedofili. Non si può avere una società stabile, non parlo quindi solo della scena politica, se il centro del dibattito è invaso da falsità e quel che è il confronto civile viene invece emarginato. Tutto a fini commerciali. Facebook avrebbe potuto fermare il carosello della disinformazione fin dal 2016. Sapeva esattamente che cosa stesse accadendo. All’interno dell’azienda venne fatta una proposta per mettere in campo delle contromisure, ma fu archiviata”.

Umani o robot? Il sistema di controllo dei social di Zuckerberg 

Immaginiamo la scena: un giorno, nel bel mezzo del mese internazionale della prevenzione del cancro al seno, decidete di postare su Instagram una serie di foto che mostrino come si manifestano concretamente i sintomi della malattia. Alcune delle fotografie pubblicate contengono capezzoli femminili scoperti. Pur essendo palese che non si tratti del genere di “immagine di nudo o atti sessuali” severamente banditi dalla piattaforma, il post viene rimosso. Mesi dopo, l’Oversight Board utilizzerà questo caso – contenuto nella decisione 2020-004-IG-UA – per contestare aspramente “la mancanza di un adeguato controllo umano” nel processo di moderazione. Nella schiacciante maggioranza dei casi, però, la cancellazione di un post, un commento o addirittura il nostro intero profilo da Facebook o Instagram (ma lo stesso discorso vale per gran parte delle piattaforme mainstream) non arriverà mai sul tavolo dell’Oversight Board. Così, la maggior parte di noi si trova ancora ad affrontare una bestia hobbesiana fatta di algoritmi fallaci e moderatori umani sfruttati e traumatizzati, regolamenti torbidi e vicoli ciechi. 

All’apparenza, il processo di moderazione è piuttosto lineare. Quando qualcuno pubblica qualcosa che potrebbe violare le regole della compagnia, quel contenuto può essere segnalato da un altro utente o essere intercettato da filtri basati sul machine learning – anche noti con il sinistro e generico termine “algoritmi”. Se è molto chiaro che il contenuto viola le regole, la segnalazione viene gestita automaticamente. Dal punto di vista tecnico, le macchine utilizzano il riconoscimento visivo per identificare intere categorie di contenuti potenzialmente nocivi – che si tratti di capezzoli o cadaveri, pistole o droghe – oppure cercano di abbinare i contenuti a una lista di elementi vietati compilata in anticipo da esseri umani. La rimozione algoritmica automatica viene utilizzata per sbarazzarsi del materiale illecito più evidente; cose come video di propaganda di organizzazioni terroristiche, materiale pedopornografico e contenuti protetti da copyright. Ciò può comportare la rimozione automatica del post o del commento o addirittura il blocco di un intero account. I casi meno chiari vengono invece messi in coda, in attesa di finire sullo schermo di moderatori in carne ed ossa. 

Se storicamente i moderatori si trovavano ad esaminare i post nell’ordine in cui erano stati segnalati, a partire dal novembre 2020 Facebook ha introdotto un nuovo sistema, basato pesantemente sull’intelligenza artificiale, per far sì che i contenuti potenzialmente più pericolosi vengano revisionati per primi. I tre criteri su cui si basa il nuovo ordine sono viralità, gravità e probabilità che stiano infrangendo le regole. Non si sa con esattezza come vengano ponderati questi criteri, ma l’intenzione della compagnia è quella di gestire con la massima rapidità i post più dannosi nel mondo reale, come quelli che contengono autolesionismo, minacce di violenza, pedopornografia o terrorismo. Nella pratica, naturalmente, il meccanismo è più nebuloso, e si inceppa spesso e volentieri. Facebook impiega in tutto il mondo migliaia di revisori il cui lavoro è quello di smistare i post segnalati e decidere rapidamente se violino o meno le varie politiche dell’azienda. Tutti ricevono la stessa formazione generale sugli standard della comunità dell’azienda e su come applicarli: alcuni di loro vanno poi a specializzarsi in determinati tipi di contenuti sensibili. La compagnia ha sottolineato in passato che le sue regole sono strutturate per ridurre i pregiudizi e la soggettività dei revisori.  

Se TikTok assume direttamente i propri moderatori di contenuti e piattaforme come Reddit o Nextdoor si affidano quasi del tutto a un enorme numero di volontari, Facebook – come anche Twitter e YouTube – hanno optato per la strada dell’esternalizzazione. Spesso precari e oberati di lavoro, i revisori non sono nemmeno lontanamente abbastanza per la massa di segnalazioni che ricevono, e finiscono spesso per subire traumi di lunga durata per via delle migliaia di post violenti che passano sotto i loro occhi ogni giorno. Eppure, il loro lavoro è fondamentale per la moderazione sulla piattaforma: per quanto Facebook speri di poter contare sempre di più sull’intelligenza artificiale, la complessità della comunicazione umana – che si tratti di satira o disinformazione, bullismo o messaggi in codice – dipende spesso dal contesto, il che evade la loro comprensione. Eppure, agli algoritmi vengono già affidate decisioni di moderazione molto scivolose, che toccano direttamente la vita di molti creator: è il caso dello shadow ban, una pratica in uso su Instagram che la ricercatrice Carolina Are, che ha svolto diversi studi sul tema, definisce come “una forma leggera e segreta di censura che ha come bersaglio contenuti che stanno ai limiti di ciò che è consentito su Instagram”. I profili di chi è soggetto a shadow ban non vengono normalmente rimossi, ma vengono mostrati molto meno nel feed di chi li segue e diventano più difficili da trovare per chi è già un follower. La pratica “colpisce particolarmente i post che contengono corpi femminili, nudità o discussioni sulla sessualità”, spiega Are. 

Se contro lo shadowbanning, per il momento, non ci sono vie per fare ricorso, chiunque si veda rimosso un post e non sia d’accordo con la decisione può normalmente fare ricorso contro la decisione. “Di solito offriamo la possibilità di richiedere un controllo e rispondiamo se abbiamo preso una decisione sbagliata”, si legge sul sito dell’azienda. Se si chiede di rivedere la decisione, Facebook esamina nuovamente il contenuto – normalmente entro 24 ore – e, se ritiene di aver commesso un errore, lo comunica all’utente e ripristinano il post. L’ultima istanza, se si continua a non condividere la decisione dei moderatori, è, appunto, appellarsi all’Oversight Board entro quindici giorni dal momento in cui Facebook o Instagram inviano un aggiornamento riguardante la propria decisione finale su uno specifico contenuto. Da qualche mese, è anche possibile chiedere alla Corte suprema di Facebook perché un post segnalato non è stato rimosso, se si ritiene che mantenerlo sulla piattaforma sia stato un errore. Oltre ad esprimersi sulla rimozione o meno dei contenuti, talvolta il Comitato accetta di dare consigli a Facebook su come applicare le proprie normative su un determinato argomento. Il Comitato si è ad esempio espresso sulla condivisione di informazioni relative alla residenza e sui casi in cui tali informazioni debbano essere considerate private e rimosse dalla piattaforma.

Il caso Trump e il problema ‘Gutemberg’

Il caso più celebre su cui il Board si è trovato a dover decidere è quello dell’ex presidente degli Stati Uniti Donald J. Trump. Una vicenda emblematica (dibattuta a livello planetario) sui limiti della libertà d’espressione di uno degli uomini più potenti al mondo (il presidente degli Stati Uniti) sulle piattaforme digitali e, in ultima analisi, dei rapporti di forza e di potere tra i leader digitali mondiali e i leader politici di peso altrettanto mondiale. Trump non potrà tornare su Facebook per almeno i prossimi due anni. Questa è la decisione finale a cui si è arrivati alla fine di una consultazione e di un ricorso al Comitato di Controllo. Trump non avrà dunque accesso alla piattaforma social più popolare del mondo per tutta la campagna elettorale delle elezioni di mid-term nel 2022. Una riammissione nel gennaio 2023, nella campagna per le presidenziali del 2024, sarà sottoposta a un’ulteriore valutazione da parte di esperti per decidere “se i rischi per la pubblica sicurezza sono venuti meno”.  

La pagina Facebook di Donald Trump sospensa dall’Oversight Board il 6 gennaio 2021 
Il primo silenziamento di Trump fu deciso da Facebook all’indomani dei traumatici eventi del 6 gennaio scorso, quando centinaia di sostenitori dell’ex presidente presero d’assalto il Congresso Usa eccitati dai messaggi incendiari e dalle false accuse di truffa elettorale lanciati da Trump dopo la vittoria di Joe Biden nel voto del 4 novembre. Subito dopo, Facebook, come anche Youtube e Twitter, avevano deciso di sospendere (a tempo indefinito) l’ex presidente dai loro siti. Dopo le polemiche e le accuse di “censura” da parte di molta stampa, governi, osservatori in tutto il mondo, Facebook aveva rinviato la decisione all’Oversight Board, il comitato indipendente di “saggi” istituito da Mark Zuckerberg per valutare le decisioni della piattaforma. Il Board ha confermato nel maggio scorso la decisione presa dal social network, ma lo ha fatto con un verdetto pieno di sfumature, che ha rimandato la decisione nel campo di Zuckerberg. Il Board aveva chiesto infatti alla piattaforma di rivedere la sanzione perché non è stata adottata secondo le regole interne del social. La sospensione definitiva, spiegava il comitato, è stata imposta in modo troppo frettoloso e privo di criteri chiari. Il Board aveva dato a Facebook sei mesi per rivedere il bando di Trump, durante i quali la piattaforma sarebbe dovuta arrivare a formulare una “risposta proporzionata” coerente con le regole applicate agli altri utenti. 

“La decisione di imporre la punizione della sospensione a tempo indefinito, in modo indeterminato e privo di standard, è stata inadeguata”, diceva il Board. “Tra le sanzioni di Facebook ci sono la rimozione dei contenuti che violano le norme, l’imposizione di un periodo di sospensione temporaneo, o la disabilitazione permanente della pagina e dell’account”. E dunque sarebbe toccato a Facebook “stabilire e giustificare una risposta proporzionata”. Anche se, nella sua decisione, il Board non escludeva di ritrovarsi presto a doversi di nuovo pronunciare sulla questione. Il che è probabile, se si leggono i termini dell’ultima determinazione di Facebook. “Vista la gravità delle circostanze che hanno portato alla sospensione di Trump pensiamo che le sue azioni costituiscano una violazione grave delle nostre regole e che meritino la sanzione più elevata di cui disponiamo secondo i nuovi protocolli”, dice Clegg. Nel caso in cui, una volta riammesso, Trump commettesse nuove violazioni, andrebbe incontro a una serie di “sanzioni di gravità crescente”, fino alla sospensione permanente dell’account. A deciderlo, a quel punto, potrebbe essere di nuovo chiamato il Board.

Jeff Jarvis: “Facebook ha bandito Trump, ma il Board ha ‘rimpallato’ con una mossa codarda”

Jeff Jarvis, giornalista, guru dell’open web, fondatore del blog BuzzMachine, scrittore (l’ultimo libro è Gutenberg the Geek) e professore alla Graduate School of journalism della City University di New York, commenta la sospensione da Facebook dell’ex presidente degli Stati Uniti Donald Trump, dopo la vittoria di Joe Biden il 4 novembre 2020. Intervista di Raffaella Menichini

Il bando di Trump ha sollevato le proteste di molti governi, e numerosi appelli alla regolamentazione delle piattaforme. Ma quando i governi intervengono per giudicare e regolamentare la Rete, il rischio è che si metta mano troppo presto e su una materia ancora tutta da plasmare, avverte Jarvis. “Sappiamo cos’è Internet? No – continua Jarvis – non ne abbiamo la più pallida idea. Il primo browser commerciale è apparso nel 1994, una ventina danni prima che il web diventasse accessibile alla maggioranza della popolazione. La prima Bibbia stampata da Gutenberg è del 1454. Ci vollero cinquanta anni perché il libro prendesse la forma che conosciamo adesso, con gli indici, le pagine titolate e numerate. Ci vollero 150 anni prima dell’invenzione del primo giornale. E prima che la tecnologia di stampa cambiasse sono passati tre secoli e mezzo, fino al 1800. E solo nel 1900 abbiamo smesso di mandare in stampa un carattere alla volta e il broadcast, con la radio, ha cominciato a competere con la stampa. La televisione negli anni 50, fino ad oggi. In anni di Gutenberg” siamo circa al 1475-80. Martin Lutero nacque nel 1483. Il nostro Lutero è già nato? Continua Jarvis: “Forse, sotto forma di Black Lives Matter, ma chissà. La pretesa di mettersi lì oggi a legiferare su quello che è Internet e cosa dovrebbe essere è ridicola. In tempi di cambiamento si discute e si cambiano le regole, ma questo non scaturisce da un organo ufficiale. Nasce coinvolgendo accademici, società civile, artisti, e anche i governi e le piattaforme. Abbiamo bisogno di discutere e individuare quali sono i nostri obiettivi, qual è la Stella polare, quali sono i nostri desideri, per cosa vogliamo sentirci responsabili. Di questo dobbiamo parlare. E non può succedere finché tutti hanno paura di tutti”.

Le prossime sfide: privacy, algoritmi e A.I.

“La cosa interessante di questo lavoro sta nel suo superare i confini dei singoli Paesi”, conclude Helle Thorning-Schmidt. “La libertà di parola è un diritto universale e deve valere ovunque senza differenze nell’applicazione. Nella moderazione dei contenuti online c’è chi sostiene che si dovrebbero seguire le leggi delle singole nazioni. Ma se facessimo così avremmo tanti differenti Facebook in giro per il mondo. E invece le regole devono essere universali, per questo motivo ci basiamo sui diritti umani”. Non è uno scenario completamente nuovo, almeno per quel che riguarda l’auto regolamentazione. Basti pensare alla tv e ai giornali. Ma stavolta si vuole usarlo come schema globale e la differenza non è di poco conto. Tra i tanti problemi, uno di quelli centrali, come ammesso anche da Thorning Smith, è la quantità: riesce a considerare solo pochissimi casi rispetto a milioni e milioni di potenziali segnalazioni. “La larga scala dei contenuti – conclude il suo ragionamento Jarvis – è allo stesso tempo un’opportunità e un problema. È un’opportunità perché è stato grazie all’ampiezza delle piattaforme come Facebook, Twitter, Youtube che sono riuscite ad emergere voci che non erano finora state ascoltate sui mass media. Come Black Lives Matter o il MeToo, la testimonianza dell’uccisione di George Floyd. Ma è anche il nemico, perché diventa impossibile gestire tutto quello che viene fuori su quella grande scala. Quindi Facebook è destinata a fallire. E anche il Board”. 

Il Comitato “può essere uno strumento, ma per far sì che Facebook sia chiamato a rispondere di quel che fa esistono già organismi ufficiali. Sarebbe importante che il Board non fosse visto come l’unico in grado di chiedere conto a Facebook, che venisse preso in considerazione il lavoro decennale degli attivisti, dell’accademia”, osserva ancora York. Il problema di fondo è il cuore di Facebook: lo strapotere del suo leader. “È il momento che Mark Zuckerberg si ridimensioni, che si rinnovi il team che si è creato sotto di lui. Non vedremo cambiamenti reali in questa azienda finché non vedremo un cambio di leadership”. Nel frattempo, sul tavolo dell’Oversight Board è molto probabile che presto arrivi il tema dell’uso dei dati degli utenti da parte di Facebook, così come l’azione degli algoritmi e dell’intelligenza artificiale nel promuovere certi contenuti invece di altri. Un tema complesso, con implicazioni profonde che vanno ben oltre i casi fin qui affrontati. Perché significa mettere mano al Dna stesso dell’impero di Zuckerberg, la parte custodita con maggiore gelosia, quella che spesso spinge le persone a passare sempre più tempo online grazie a metodi che non sempre appaiono come ortodossi. 

Related articles

You may also be interested in

Headline

Never Miss A Story

Get our Weekly recap with the latest news, articles and resources.
Cookie policy

We use our own and third party cookies to allow us to understand how the site is used and to support our marketing campaigns.