Monitoraggio dei post filo-palestinesi rimossi

Secondo un rapporto dell’Ufficio del Procuratore di Stato israeliano, nel 2018 l’unità informatica israeliana ha presentato più di quattordicimila richieste di rimozione a Google e Facebook, circa il 90% delle quali sono state accolte

Fonte: English version

Di Yona Goldin – 27 novembre 2023

Nelle settimane successive al 7 ottobre, quando Hamas ha attaccato i civili israeliani, e durante il bombardamento e l’invasione di Gaza che ne sono seguiti, le persone sui social media si sono lamentate della limitazione o della rimozione dei post a sostegno dei palestinesi. Ci sono stati alcuni esempi di alto profilo: Facebook ha rimosso le pagine in inglese e in arabo di Quds News Network, noto per la condivisione di video grafici in crowdsourcing*. Gli organi di stampa hanno anche riferito di profili individuali che condividono materiale relativamente innocuo, un emoji con la bandiera palestinese, per esempio, che sono stati definiti “potenzialmente offensivi”. Al Jazeera, il Wall Street Journal, The Guardian e The Intercept hanno scoperto che post e account sono stati rimossi o la loro portata limitata. È stato difficile dimostrare se ciò equivalga a un tentativo coordinato di censura.

Nadim Nashif, il direttore di 7amleh (si pronuncia hamleh, Campagna in arabo), un’organizzazione no-profit che promuove i diritti digitali dei palestinesi, osserva da anni un’eccessiva moderazione. Nashif, che ha cinquant’anni, monitora le reti social dal suo ufficio ad Haifa, una città portuale mista palestinese-ebraica sulla costa settentrionale di Israele. Nel 2020, 7amleh ha pubblicato un Rapporto: “Sforzi Sistematici per Censurare i Contenuti Palestinesi sui Social Media”. L’organizzazione ha iniziato a documentare la censura nel 2021, quando scoppiarono le proteste per gli sfratti nel quartiere palestinese di Sheikh Jarrah a Gerusalemme Est e Israele lanciò attacchi aerei mortali su Gaza; 7amleh ha creato un modulo attraverso il quale le persone potevano fornire prove del fatto che i loro post erano stati impropriamente limitati. “Quando si fa una cosa del genere”, ha detto Nashif, “significa che si sta lavorando a favore del lato potente e meno per il lato debole”.

I risultati di 7amleh: cinquecento rilevazioni nell’arco di circa due settimane, hanno stimolato una risposta internazionale. Decine di organizzazioni hanno firmato una lettera a Meta (allora Facebook) chiedendo maggiore trasparenza nella moderazione dei contenuti, inclusa l’influenza dei funzionari israeliani. Meta ha commissionato una verifica indipendente. I risultati, pubblicati lo scorso settembre, hanno elogiato l’azienda per la creazione di un gruppo speciale per monitorare la situazione e per concentrarsi su contenuti che potrebbero portare a “possibili ripercussioni al di fuori dei social”. Ma il Rapporto conclude anche che gli sforzi dell’azienda hanno avuto “un impatto negativo” sui diritti civili dei palestinesi e dei sostenitori che fanno affidamento su Facebook e Instagram per documentare e condividere informazioni. Ci sono stati esempi di post sia in arabo che in ebraico rimossi senza violare alcuna regola, ma era chiaro: i post in arabo venivano moderati in modo sproporzionato.

Mentre Meta si trova ad affrontare un continuo controllo sul suo ruolo nello stimolare il conflitto diffondendo la disinformazione legata alle elezioni negli Stati Uniti, organizzando la comunicazione nel periodo precedente l’insurrezione, alimentando il Genocidio contro i Rohingya, la società ha apportato modifiche al modo in cui monitora i contenuti. Nel tempo Meta ha affinato algoritmi per rilevare meglio l’incitamento alla violenza; recentemente, la società ha aggiunto “classificatori” in ebraico, termini utilizzati dagli algoritmi per determinare se un contenuto viola le norme, per migliorare la sua capacità di segnalare proclami di odio anti-arabo. “Stanno facendo qualcosa”, ha detto Nashif. “Ma non è molto efficace”.

7amleh ha scoperto che, durante i periodi di maggiore disordini, aumentano le richieste di moderazione ingiustificata dei contenuti. Dal 7 ottobre, l’organizzazione ha ricevuto più di millequattrocento segnalazioni. (Per fare un confronto, 7amleh ha ricevuto 111 richieste in tutto il 2022.) I recenti contributi includono screenshot di commenti bloccati, hashtag nascosti e storie di Instagram relative alla Palestina che hanno ricevuto nettamente meno visualizzazioni rispetto ad altri post della stessa persona. 7amleh raccoglierà i dati, quindi aiuterà le persone a ripristinare i propri contenuti, spesso facendo appelli diretti alle società di social media. “Stiamo cercando di dire a Meta che se c’è una situazione in cui alcune persone vengono censurate, i social media dovrebbero essere la loro voce”, ha detto Nashif. “Soprattutto quando i media convenzionali non coprono sufficientemente la loro versione della storia”.

Le spiegazioni per l’iniqua moderazione variano. Secondo la verifica dello scorso anno, c’è stato un certo grado di errore umano: un moderatore di terze parti ha aggiunto #AlAqsa a una lista bloccata, che impediva alle persone di cercare l’hashtag, che si riferiva a un luogo sacro musulmano a Gerusalemme; il moderatore lo aveva confuso con la “Brigata Al Aqsa”, classificata dal Dipartimento di Stato americano come gruppo terroristico. Il sistema di moderazione di Meta è stato inoltre addestrato utilizzando un elenco di termini associati a organizzazioni terroristiche legalmente designate, una categoria che la verifica ha rilevato avere “un’attenzione sproporzionata su individui e organizzazioni che si identificano come musulmani”, facendo in modo che sia “più probabile” che le regole di Meta abbiano un impatto sugli utenti palestinesi e di lingua araba”.

Il rapporto non commenta il ruolo dei funzionari governativi israeliani nel processo di revisione dei contenuti di Meta. Eppure la comunicazione tra il gruppo di moderazione dell’azienda e l’unità informatica israeliana è stata ben documentata. Secondo un rapporto dell’Ufficio del Procuratore di Stato israeliano, nel 2018 l’unità ha presentato più di quattordicimila richieste di rimozione a Google e Facebook, circa il 90% delle quali sono state accolte. “C’è molta politica su ciò che viene applicato, come viene applicato e se viene applicato”, ha detto Nashif. “Meta afferma di avere degli standard, di avere regole che vengono applicate equamente per tutti. E poi ai fatti si scopre che quell’affermazione non è vera”.

Note:

[* Il crowdsourcing è una tipologia di attività online partecipativa nella quale una persona, istituzione, organizzazione non a scopo di lucro o azienda propone ad un gruppo di individui, mediante un annuncio aperto e flessibile, la realizzazione libera e volontaria di un compito specifico.]

Yona Golding è un membro del Columbia Journalism Review. La Columbia Journalism Review è una rivista semestrale per giornalisti professionisti pubblicata dalla Facoltà di Specializzazione in Giornalismo dell’Università Columbia dal 1961.

Traduzione di Beniamino Rocchetto – Invictapalestina.org