L’Oversight Board di Facebook, in qualità di comitato di controllo dei contenuti adottato dall’azienda Facebook – ne abbiamo parlato qui – il 28 gennaio 2021 ha rilasciato le prime decisioni su alcuni casi scelti per il loro alto valore simbolico, peraltro quasi tutti legati al tema dell’hate speech.
In materia di contenuti che incitano all’odio, al punto n. 12, al titolo III rubricato “Contenuti riprovevoli”, degli standard della Community, la piattaforma dichiara:
Crediamo che le persone si sentano più libere di esprimersi e connettersi se non vengono attaccate in base alla loro identità. Per questo motivo, non consentiamo l'incitamento all'odio su Facebook perché crea un ambiente di intimidazione ed esclusione e in alcuni casi potrebbe promuovere la violenza offline. Definiamo l'incitamento all'odio come un attacco diretto rivolto alle persone sulla base di categorie protette, quali razza, etnia, nazionalità di origine, disabilità, religione, casta, orientamento sessuale, genere, identità di genere e malattie gravi. Definiamo l'attacco come discorsi violenti o disumanizzanti, stereotipi nocivi, dichiarazioni di inferiorità, espressioni di disprezzo, disgusto o rifiuto, imprecazioni e incitazioni all'esclusione o alla segregazione. Consideriamo l'età come una categoria protetta quando si fa riferimento ad altre categorie protette. Proteggiamo inoltre rifugiati, migranti, immigrati e richiedenti asilo dagli attacchi più gravi, pur consentendo di commentare e criticare le politiche sull'immigrazione. Allo stesso modo, proteggiamo categorie quali l'occupazione quando si fa riferimento a un'altra categoria protetta. Riconosciamo che le persone in alcuni casi condividono contenuti che incitano all'odio di cui non sono autori allo scopo di condanna o sensibilizzazione. In alcuni casi, discorsi che potrebbero altrimenti violare i nostri standard possono essere usati in modo autoreferenziale o per rafforzare una causa. Le nostre normative sono pensate per lasciare spazio a questi tipi di discorsi, ma chiediamo alle persone di chiarire le proprie intenzioni. Quando l'intenzione non è chiara, possiamo rimuovere il contenuto.”
Partendo da questo assunto, abbiamo esaminato i provvedimenti del board e le raccomandazioni ad essi accompagnate per comprendere i criteri valutativi impiegati dallo stesso comitato.
Dei sette ricorsi presentati ne ha accolti quattro. Infatti il primo caso è stato archiviato per “cessata materia del contendere” mentre il quarto è stato rigettato.
Ma andiamo per ordine.

Sommario
Lo screenshot delle dichiarazioni del Primo ministro malese contro i francesi
- Link per approfondire: https://www.oversightboard.com/decision/FB-KBHZS8BL/)
- Data di pubblicazione: 28 gen 2021
- Piattaforma: Facebook
- Standard della community pertinenti: Incitamento all’odio
- Argomenti correlati: Politica, Violenza, Religione
- Regione: Asia Pacifico e Oceania
- Paesi interessati: Malesia
Il primo caso sottoposto al Comitato è stato archiviato poiché l’utente autore del post ha, in autonomia, deciso di rimuoverlo.
Sinteticamente, l’utente commentava un post pubblicando uno screenshot di due tweet dell’ex Primo ministro malese, Mahathir Mohamad, in cui quest’ultimo sosteneva che “i musulmani hanno il diritto di essere arrabbiati e uccidere milioni di francesi per i massacri del passato” e “ma in linea di massima i musulmani non hanno applicato la ‘legge del taglione‘. I musulmani non devono farlo. I francesi non dovrebbero farlo. Al contrario, i francesi dovrebbero insegnare ai propri connazionali il rispetto per i sentimenti delle altre persone“.
L’utente aveva omesso di aggiungere una didascalia “chiarificatrice” assieme agli screenshot pertanto il post veniva inizialmente rimosso da Facebook perché violava la normativa che vieta l’incitamento all’odio.
L’utente ricorreva al Board specificando che il suo intento era quello di voler far conoscere le “orribili parole” dell’ex Primo ministro.
Nonostante la decisione del social, il post era rimasto sulla piattaforma pertanto l’utente aveva deciso di eliminarlo definitivamente.
Il Comitato non avendo la possibilità di ripristinare il contenuto si è limitato ad archiviare la questione anche perché la procedura di controllo si era interrotta dopo che il caso era già stato assegnato a un gruppo di membri, ma comunque prima dell’inizio delle deliberazioni.
La frase “infelice” sulla religione islamica
- Link per approfondire: https://www.oversightboard.com/decision/FB-I2T6526K/
- Data di pubblicazione: 28 gen 2021
- Piattaforma: Facebook
- Standard della community pertinenti: Incitamento all’odio
- Argomenti correlati: Politica, Religione, Violenza
- Regione: Europa
- Paesi interessati: Birmania, Francia, Cina
Il primo dei casi per i quali si è formulata una decisione sul merito riguarda il commento, in burmese (lingua birmana), di un utente birmano che nel contesto di un più ampio discorso criticava la mentalità (psicologia) dei musulmani (lett. «[there is] something wrong with Muslims psychologically»).
Il post includeva due fotografie ampiamente diffuse che ritraevano un bambino siriano di etnia curda affogato nel tentativo di raggiungere l’Europa nel settembre del 2015.
Il post fu interamente censurato dal team di moderazione di Facebook perché offensivo nei confronti dei musulmani, accusati di essere affetti da una sorta di malattia mentale generalizzata.
La valutazione del ricorso ebbe inizio con l’analisi degli standard della community del social che si presumevano violati.
Facebook, dal suo canto, riteneva che il linguaggio utilizzato dall’utente del Myanmar fosse contrario ai valori cui si ispira la piattaforma in tema di sicurezza, configurandolo quindi come “hate speech” ovvero come “violent or dehumanizing speech, harmful stereotypes, statements of inferiority, or calls for exclusion or segregation”.
Al riguardo lo standard della community riguardante l’incitamento all’odio vieta dichiarazioni di inferiorità generiche relative ai limiti mentali di un gruppo ed espresse in base alla religione, così l’azienda decideva di rimuovere il post.
Di avviso opposto l’organo di vigilanza, secondo il quale il caso di specie non rientrava nella definizione fornita dalla piattaforma, poiché da una lettura del commento, nel suo complesso, in realtà emergeva una critica sull’incoerenza tra le reazioni che si registravano in alcune comunità musulmane quando esse pretendevano di difendere la propria identità.
L’utente, nell’esprimere il suo pensiero, etichettava come irragionevole il clamore suscitato dalle vignette di Charlie Hebdo rispetto al silenzio sulla repressione delle autorità di Pechino della minoranza musulmana Uiguir nella Cina occidentale.
Contestando la diversità di risposta dinanzi a situazioni di tale atrocità, concludeva che gli eventi avvenuti in Francia avevano limitato il senso di compassione nei confronti del bambino rappresentato in foto e sembrava anche insinuare che il bambino sarebbe diventato un estremista da grande.
In considerazione della accurata analisi del testo nella sua interezza, il pensiero espresso dall’utente non poteva configurarsi come un caso di retorica antimusulmana.
Pertanto, anche se poteva in qualche modo ritenersi offensivo, non raggiungeva il livello di incitamento all’odio richiesto dalla norma né incoraggiava intenzionalmente una qualche forma di danno imminente, ponendosi quindi nell’ambito coperto dagli standard di community.
In sostanza, la valutazione della gravità di un pensiero espresso non può prescindere da una disamina del contesto in cui si inserisce.
Incitamento all’odio nella guerra tra Armeni e Azeri
- Link per approfondire: https://www.oversightboard.com/decision/FB-QBJDASCV/
- Data di pubblicazione: 28 gen 2021
- Piattaforma: Facebook
- Standard della community pertinenti: Incitamento all’odio
- Argomenti correlati: Cultura, Discriminazione, Religione
- Regione: Europa
- Paesi interessati: Armenia, Azerbaigian
Il terzo caso riguarda un post di un cittadino armeno che pubblicava contenuti corredati di foto storiche che ritraevano il patrimonio artistico cristiano di Baku, in Azerbaijan.
Nel testo di accompagnamento, in lingua russa, l’utente appellava gli azeri “taziki” (un termine dispregiativo impiegato nei confronti degli azeri per sottolineare uno status di inferiorità) e li apostrofava come “aggressori”, “un popolo nomade e senza storia rispetto agli armeni”.
Il suddetto termine “тазики” (“taziki”), sebbene possa essere tradotto letteralmente dal russo come “catino”, può anche essere inteso come gioco di parole basato sul termine russo “азики” (“aziki”), un’espressione denigratoria nei confronti degli azeri inclusa nella lista interna di termini offensivi di Facebook.
L’utente sosteneva la causa irredentista della regione di Nagorno-Karabakh, teatro di scontri durante la guerra armeno-azera ed esaltava l’apporto armeno nella creazione dell’identità della capitale Baku.
Ciò emergeva anche dagli hashtag che lo stesso utilizzava nel post, che peraltro riceva oltre 45.000 visualizzazioni.
In questo caso, il Board decise a maggioranza di confermare il provvedimento di Facebook, fondando la propria decisione sul carattere insultante e disumanizzante del commento, che “se non costituisce incitamento [all’odio], nondimeno possiede il potenziale per causare effetti negativi”.
Come nel caso precedente, per la sussistenza della offesa denigratoria il Comitato aveva compiuto un’analisi del contesto.
La guerra dell’Artsakh del 2020 (cd. 2^ guerra del Nagomo-Karabakh) fu un conflitto armato tra le forze azere e quelle armene per il possesso della Regione Nagomo Karabakh che ebbe inizio il 27 settembre 2020.
Gli aspri combattimenti durarono per ben 44 giorni e causarono la morte di decine di vittime. Il post in commento era stato pubblicato poco prima del “cessate il fuoco” del 9 novembre 2020.
In luogo di questa precisa circostanza, il Comitato aveva ravvisato una violazione dei valori di sicurezza e dignità nonché una loro sovraordinazione rispetto a quello della libertà di parola.
In quest’ottica, la maggioranza del board sottolineava come spetti anche al social la tutela dei diritti umani dei suoi utenti, come precisato anche nelle Guiding Principles on Business and Human Rights dell’ONU (UNGPs) del 2011 che stabiliscono un quadro volontario per la definizione delle responsabilità dei privati in tema di “human rights”.
Pertanto la rimozione del post risultava una misura necessaria e commisurata nonché coerente con gli standard dei diritti umani internazionali in materia di limitazione della libertà di espressione.
Il Comitato rivolgeva inoltre delle raccomandazioni a Facebook. In particolare, ribadiva la necessità di assicurare che all’utente venisse sempre notificata la specifica ragione della rimozione.
Nel caso di cui si tratta, all’utente era stato comunicato che il post violava lo standard della community di Facebook in materia di incitamento all’odio, ma non gli era stato spiegato che il motivo era la presenza di un insulto nei confronti di una nazionalità di origine.
La mancanza di trasparenza di Facebook ha lasciato spazio alla convinzione errata che la decisione dell’azienda di rimuovere il contenuto fosse motivata dal disaccordo con il punto di vista dell’utente.
Le “oscene” immagini del seno nudo di donne, post cancro
- Link per approfondire: https://www.oversightboard.com/decision/IG-7THR3SI1/
- Data di pubblicazione: 28 gen 2021
- Piattaforma: Instagram
- Standard della community pertinenti: Immagini di nudo e atti sessuali di adulti
- Argomenti correlati: Salute, Sicurezza
- Regione: America Latina e Caraibi
- Paesi interessati: Brasile
Questo caso è frutto di un errore dell’algoritmo di moderazione ma il Comitato ha colto l’occasione per affrontarlo ugualmente.
Nello specifico un utente brasiliano, nell’ottobre 2020 in occasione della “Pink October”, giornata dedicata alla sensibilizzazione sul carcinoma mammario, pubblicava su Instagram (l’altra piattaforma di proprietà Facebook su cui il Board ha giurisdizione) delle immagini (otto di cui cinque includevano capezzoli femminili visibili e scoperti) che ritraevano il seno di alcune donne che erano state sottoposte ad un intervento di rimozione di tumori maligni.
L’utente si era persino premurato di specificare, in lingua portoghese, l’intento di tale pubblicazione. Nonostante ciò l’algoritmo di Facebook le ritenne oscene, in violazione degli standard del social in materia di nudità ed attività sessuali, e vennero rimosse.
Con lo Standard della community relativo a immagini di nudo e atti sessuali di adulti, Facebook persegue lo scopo di limitare la visualizzazione di immagini di nudo o atti sessuali perché alcune persone “potrebbero essere sensibili a questo tipo di contenuti” e “per impedire la condivisione di contenuti non consensuali o con minorenni”.
Gli utenti non devono “pubblicare immagini di adulti completamente nudi, dove il nudo è definito come […] capezzoli femminili in vista, tranne che nel contesto di […] situazioni correlate alla salute (ad es. in seguito a una mastectomia, sensibilizzazione sul cancro al seno […]).”
In quest’ottica, le linee guida della community di Instagram introducono un divieto generale relativo ai capezzoli femminili in vista, precisando alcune eccezioni correlate alla salute, senza però includere nello specifico la “sensibilizzazione sul cancro al seno“.
Si precisa che le Linee guida della community rimandano agli Standard della community di Facebook.
Quando la questione fu portata a conoscenza del Board, Facebook aveva già intrapreso azioni in tal senso ripristinando il post, erroneamente censurato.
Questo caso affronta la questione della cd. visione artificiale, ovvero le rimozioni di foto o video attraverso gli algoritmi di riconoscimento delle immagini.
Il Comitato, sebbene Facebook avesse prontamente provveduto a rivedere la sua posizione e ad ammettere l’errore sin dalla chiusura del processo interno di revisione, decise comunque di analizzare la fattispecie quale eccezione alla normativa, focalizzandosi sul ruolo dei sistemi automatizzati.
Invero, l’errata rimozione del posto rivelava l’assenza di un adeguato controllo umano e sollevava preoccupazioni in materia di diritti umani. Nella fattispecie, gli algoritmi di Facebook non avevano riconosciuto le parole “Cancro al seno”, che apparivano sull’immagine in portoghese.
Tale decisione rappresenta quindi un significativo precedente sulla illegittimità della moderazione di opinioni svolta unicamente con l’ausilio di strumenti automatizzati.
Il Comitato consigliava a Facebook di informare gli utenti in caso di ricorso all’applicazione automatica delle regole per la moderazione dei contenuti; di migliorare il rilevamento automatico di immagini con testo sovrapposto e di migliorare la propria trasparenza segnalando il ricorso all’applicazione automatica delle regole.
In ultimo, i commissari raccomandavano una più chiara, precisa ed efficace definizione delle eccezioni, posto che il caso ha fatto emergere problematicità anche sotto il profilo dell’adeguatezza delle guidelines di Instagram sulle esplicite eccezioni alle regole sulla nudità in caso di sensibilizzazione su malattie.
In particolare, sulla possibilità di mostrare immagini di capezzoli femminili al fine di sensibilizzare sul cancro al seno ed, in caso di incongruenze tra le Linee guida della community di Instagram e gli Standard della community di Facebook, assicurare la precedenza di questi ultimi.
La censura della critica al gerarca nazista Goebbels
- Link per approfondire: https://www.oversightboard.com/decision/FB-2RDRCAVQ/
- Data di pubblicazione: 28 gen 2021
- Piattaforma: Facebook
- Standard della community pertinenti: Persone e organizzazioni pericolose
- Argomenti correlati: Politica
- Regione: Stati Uniti e Canada
- Paesi interessati: Stati Uniti
Questa vicenda riguarda la rimozione del post di un utente che dichiarava il suo disaccordo con una citazione, erroneamente attribuita a Joseph Goebbels, Ministro della propaganda del regime nazista tedesco.
Secondo tale citazione in politica, piuttosto che argomentazioni razionali, le discussioni dovrebbero fare leva sulle emozioni e sugli istinti e che la verità non è importante ed è subordinata alle tattiche ed alla psicologia.
Al riguardo, l’utente, come emergeva evidentemente anche dai commenti al post di altri utenti che avevano compreso il pensiero del ricorrente, condivideva la citazione sul suo profilo per sottolinearne la pericolosità che un tal pensiero avrebbe potuto comportare.
Infatti, nel post non erano presenti immagini di Joseph Goebbels né simboli nazisti. L’utente aveva dichiarato che il suo intento era quello di creare un parallelo tra il concetto della citazione e la presidenza di Donald Trump.
Inoltre, l’utente aveva pubblicato per la prima volta il contenuto due anni prima ed era stato invitato a ripubblicarlo dalla funzione “Ricordi” di Facebook, che consente agli utenti di vedere cosa hanno pubblicato un dato giorno di un anno precedente, con la possibilità di ricondividere il post.
Ebbene, secondo il Social, siccome la “condanna” della frase di Goebbels non era sufficientemente chiara era doveroso rimuoverla perché violava lo Standard della community in materia di persone e organizzazioni pericolose.
Nella risposta al Comitato, Facebook confermava che Joseph Goebbels era incluso nella lista di persone pericolose. Facebook affermava che i post che condividono una citazione attribuita a una persona pericolosa vengono considerati come un’espressione di supporto alla stessa, a meno che l’utente non avesse chiarito il suo intento.
In pratica, l’utente non aveva espresso chiaramente se avesse condiviso la citazione per condannare Joseph Goebbels, per obiettare all’estremismo e all’incitamento all’odio o per scopi accademici o informativi.
Ancora una volta, il Comitato non approva il provvedimento di Facebook.
Ribadisce che, in linea con gli standard internazionali in materia di diritti umani, qualsiasi regola che limita la libertà di espressione deve essere chiara, precisa e pubblicamente accessibile, affinché le persone possano comportarsi di conseguenza e conclude che, con riferimento alle condotte che riguardano “individui ed organizzazioni pericolose”, esse non soddisfano tali requisiti.
Sebbene nella decisione di Facebook risiedesse la volontà di tutelare la pace sociale, di fatto il social ha omesso di introdurre delle regole sufficientemente dettagliate in tal senso.
Come nel caso in commento, se un utente pubblica una citazione attribuita a un individuo pericoloso, non vi è una norma che preveda espressamente che debba chiarire che non lo sta lodando o che quel determinato movimento non possa essere pubblicamente supportato.
Tantomeno la piattaforma fornisce esempi chiari che spieghino il significato di termini come “elogio”, “supporto” o “rappresentazione”, rendendone difficile la comprensione da parte degli utenti. Omette di fornire oltretutto anche una lista pubblica con esempi di persone e organizzazioni pericolose.
In altri termini, se Facebook avesse verosimilmente indicato preventivamente un elenco di individui interdetti o di movimenti non tollerati, molto probabilmente la decisione del Comitato avrebbe preso un’altra direzione.
Tuttavia, come denunciato recentemente anche da Ginevra Cerrina Feroni, in qualità di Vice Presidente della Autorità Garante per la protezione dei dati personali, ciò potrebbe avere serie ripercussioni non solo sulla libertà di espressione, ma sulla conduzione di qualsiasi dibattito sulla piattaforma.
Infatti, una impostazione siffatta impedirebbe l’operatività delle eccezioni al principio generale che si fondano sostanzialmente sulla capacità dell’utente di comprendere il contenuto di un commento ma soprattutto di contestualizzarlo.
In pratica, ogni qualvolta si parla di personaggi antidemocratici della storia sarebbe assurdo dover “pubblicamente” prenderne le distanze per giustificarne il richiamo.
La lotta al Covid-19 e le critiche alle terapie di contrasto
- Link per approfondire: https://www.oversightboard.com/decision/FB-XWJQBU9A/
- Data di pubblicazione: 28 gen 2021
- Piattaforma: Facebook
- Standard della community pertinenti: Violenza e istigazione alla violenza
- Argomenti correlati: Salute, Disinformazione, Sicurezza
- Regione: Europa
- Paesi interessati: Francia
Il sesto caso riguarda il video pubblicato da un utente francese nell’ottobre 2020 accompagnato da un testo, in lingua francese ed all’interno di un gruppo Facebook pubblico legato al Covid-19, nel quale criticava apertamente la strategia di contrasto al coronavirus adottata dal governo francese.
Nello specifico, il post alludeva a uno scandalo presso l’Agence Nationale de Sécurité du Médicament (l’agenzia francese che si occupa di regolamentare i prodotti sanitari), la quale aveva rifiutato di autorizzare l’uso combinato di idrossiclorochina (farmaco antimalarico che secondo alcuni studi possiede un efficace effetto antivirale) e azitromicina per contrastare il covid-19, avendo invece autorizzato e promosso il Remdesivir.
L’utente criticava la mancanza di una strategia sanitaria da parte delle autorità d’oltralpe e affermava che “il trattamento di Didier Raoult”, professore di microbiologia e direttore dell’Institut Hospital-Universitaire Méditerranée Infection dell’Università di Marsiglia, venisse usato in qualunque altra parte del mondo per salvare vite umane.
Infine, l’autore del post si interrogava sulle possibili conseguenze per la società nel caso in cui ai medici fosse stato consentito di prescrivere in situazione di emergenza un “farmaco innocuo” al verificarsi dei primi sintomi del Covid-19.
Facebook reputava il post in contrasto con le linee guida sugli abusi che concernono l’emergenza Covid-19.
In particolare per quanto riguarda i rischi di “misinformation” e “imminent harm”, che si collocherebbero nella più ampia categoria della “violenza e istigazione”.
Secondo la piattaforma, negata l’efficacia del medicinale da parte della comunità scientifica, la sua promozione avrebbe potuto istigare altri utenti a “ignorare le indicazioni precauzionali sanitarie e /o auto-curarsi”.
Anche questo provvedimento venne cassato dall’Oversight Board, eccependo la mancata prova del danno imminente paventato dal social.
Il Comitato lamentava che negli standard della Community non fossero stati individuati i fattori concomitanti e contestuali che favorissero il danno e la sua imminenza, oltre alla semplice dichiarazione dello stesso utente.
Dall’analisi del post dell’utente difatti si rinveniva che il suo intento fosse quello di fare in modo che le autorità francesi ascoltassero il citato professore marsigliese.
Inoltre il mix di farmaci di cui parlava l’utente non era disponibile senza prescrizione medica in Francia e il contenuto del post non incoraggiava le persone ad acquistare o assumere farmaci senza prescrizione.
Il Board quindi non ravvisava il criterio del pericolo nel post pubblicato dall’utente e, inoltre, rilevava come la decisione di Facebook non rispettasse gli standard dei diritti umani internazionali sui limiti alla libertà di espressione, posto che la piattaforma aveva fatto ricorso allo strumento delle rimozione per un caso di questa portata, da intendersi come semplice disinformazione sanitaria, piuttosto che ricorrere a misure meno invasive.
Si pensi all’interruzione degli incentivi economici per le persone e le pagine che promuovono la disinformazione; alla riduzione della loro visibilità sulla piattaforma o alla predisposizione di iniziative finalizzate a promuovere una contro-informazione da parte di fact checker indipendenti.
Nelle linee guida sulle normative, il Comitato consiglia a Facebook di creare un nuovo Standard della community sulla disinformazione legata alla salute, chiarendo le regole esistenti e accorpandole in un’unica sede.
Ciò dovrebbe facilitare la definizione di termini chiave come “disinformazione”. Suggerisce altresì di aumentare la trasparenza in merito alla moderazione della disinformazione legata alla salute, anche pubblicando un report sulla trasparenza relativo alle modalità di applicazione degli Standard della community durante la pandemia di Covid-19.
I musulmani indiani “tirano fuori la spada” contro Macron
- Link per approfondire: https://www.oversightboard.com/decision/FB-R9K87402/
- Data di pubblicazione: 12 feb 2021
- Piattaforma: Facebook
- Standard della community pertinenti: Violenza e istigazione alla violenza
- Argomenti correlati: Religione, Violenza
- Regione: Asia centrale e meridionale
- Paesi interessati: Francia, India
L’ultimo caso trattato dall’Oversight Board riguarda un post di fine ottobre 2020 di un utente in un gruppo pubblico che si proponeva di fungere da forum per i musulmani indiani.
Il post conteneva un meme con un’immagine della serie televisiva turca “Diriliş: Ertuğrul” e ritraeva uno dei personaggi con indosso un’armatura in cuoio e una spada nel fodero. Il meme aveva un testo sovrapposto in lingua hindi.
La traduzione inglese offerta da Facebook era la seguente: “Se la lingua del Kāfir si scaglia contro il Profeta, allora la spada deve essere tirata fuori dal fodero”.
Dagli hashtag corredati al post emergeva che il presidente francese Emmanuel Macron era stata definito “il diavolo” e che veniva richiesto il boicottaggio dei prodotti francesi.
Secondo l’azienda il contenuto metteva in primo piano la tensione tra ciò che si considerava come discorso religioso e una possibile minaccia di violenza, anche se non esplicita, pertanto andava rimosso.
Facebook riteneva che l’espressione del “tirare la spada fuori dal fodero” fosse una minaccia velata contro i “Kāfir”, termine che per l’azienda ha un tono offensivo nei confronti dei non musulmani. Una sorta di dichiarazione in codice in cui la minaccia è implicita ma sussiste.
In disaccordo ancora una volta, il Comitato riteneva che i riferimenti al presidente Macron e al boicottaggio dei prodotti francesi fossero istigazioni non necessariamente violente, ma di una critica alla risposta di Macron nei confronti della violenza di matrice religiosa.
Il Comitato precisava poi che la decisione di ripristinare il post non implicava la condivisione di tali contenuti.
Tuttavia, in base agli standard dei diritti umani internazionali, le persone hanno il diritto di cercare, ricevere ed esprimere idee e opinioni di qualunque tipo, anche quelle che potrebbero essere controverse o estremamente offensive.
Di conseguenza, la maggioranza del Comitato riteneva che, proprio come le persone hanno il diritto di criticare le religioni o le figure religiose, anche le persone religiose hanno il diritto di dichiararsi offese di fronte a tali critiche.
Le limitazioni alla libertà di espressione dovevano essere facilmente comprese e accessibili.
A tal fine il Board raccomanda a Facebook di fornire agli utenti informazioni aggiuntive in merito all’ambito e all’applicazione delle limitazioni previste per le minacce velate. Ciò aiuterebbe gli utenti a capire quali sono i contenuti ammessi in tale ambito.
Facebook dovrebbe rendere pubblici i suoi criteri di applicazione delle regole, i quali dovrebbero prendere in considerazione l’intento e l’identità dell’utente, nonché il suo pubblico e il contesto più ampio.

Considerazioni
Le decisioni poc’anzi esaminate consentono di delineare il quadro generale in cui si muove l’Oversight Board di Facebook.
Pare si stia assistendo ad un fenomeno di “privatizzazione della giustizia digitale su scala globale”, come definito dallo stesso Garante privacy italiano.
Le grandi società private che operano nel web stanno assorbendo gradualmente le competenze statali, sforando il consueto ambito operativo rappresentato dall’offerta di contenuti o di servizi agli utenti finali, ma intervenendo anche nelle loro vite ed incidendo sui loro diritti fondamentali.
Il Board di vigilanza del social di Zuckerberg è un organismo privato che di fatto risolve controversie in grado di minare diritti ed interessi degli utenti. Un organo transnazionale indipendente che si comporta come una istituzione digitale slegata dal controllo dello stato.
Tra l’altro questo comitato travestito da giudice super partes, ai fini della decisione, non applica le leggi del paese dove è avvenuta la violazione ma ricorre a standard giuridici internazionali (es. i principi delle Convenzione internazionale sui Diritti Civili e Politici, le diverse raccomandazioni del Consiglio dell’ONU per i Diritti Umani o dal Relatore speciale per la promozione e protezione della libertà di opinione ed espressione.)
Essendo ancora ai suoi primi passi, non è facile né appropriato trarre delle conclusioni. In qualità di un organismo funzionalmente indipendente che giudica, in un equo bilanciamento, diritti potenzialmente in contrasto, è sicuramente più efficace dei sistemi di moderazione sino ad ora applicati dalla piattaforma.
L’aspetto positivo è che il Comitato accompagna quasi tutte le decisioni con delle raccomandazioni, delle linee guida alla normativa o agli standard della community, che fungono da stimolo per un costante adeguamento finalizzato al perseguimento dei valori a cui Facebook si ispira.
VP