Teatro della crudeltà

I moderatori invisibili di Facebook

I pulitori
Regissør: Hans Block Moritz Riesewieck
(Tyskland)

Gli "aiutanti per la pulizia" delle piattaforme di social media globali vivono in società dure e in condizioni relativamente disordinate rispetto a quelle che puliscono dopo.




(QUESTO ARTICOLO È TRADOTTO DA Google dal norvegese)

Al festival del cinema di quest'anno a Rotterdam, Hans Block e Moritz Riesewieck hanno presentato il loro nuovo documentario I pulitori. Inizia con un elenco di statistiche aride e consumate: in tutto il mondo, tre miliardi di persone sono collegate attraverso i social media. Ogni minuto, 500 ore di video vengono caricate solo su YouTube. Nello stesso periodo, 450 tweet vengono pubblicati su Twitter e 000 milioni di post vengono pubblicati su Facebook. La community di Facebook conta ora circa due miliardi di membri, quasi un quarto della popolazione mondiale. La sua influenza come opinionista è diventata maggiore di quella di qualsiasi stato-nazione.

Chiedi di rimuovere i "contenuti indesiderati"

I pulitori ci porta dai luoghi di lavoro immacolati e altamente tecnologici degli ingegneri dell'azienda e dalla loro vita quotidiana alle case fatiscenti di Manila, dove risiedono i cosiddetti moderatori di contenuti, o "aiutanti delle pulizie" di Facebook. Quasi tutti vengono reclutati dalla strada senza alcun background in politica, sociologia o psicologia, per non parlare della conoscenza della teoria dell'arte o delle varie forme di espressione. Sono assunti solo per cancellare. Ufficialmente, Facebook non è autorizzato ad assumere addetti alla moderazione dei contenuti nelle Filippine, ma le società di outsourcing locali lo rendono possibile. Sono questi enti che forniscono gli stipendi di Facebook.

Nel mondo, tre miliardi di persone sono connesse attraverso i social media.

I realizzatori hanno avuto un accesso intimo alla vita di questi addetti alle pulizie, seguendoli nelle loro case, nelle attività del tempo libero, in chiesa, nelle discoteche e nelle sale giochi. Alcuni corrono un grosso rischio togliendosi la rivista di bocca – cosa che fanno, anche se tutti hanno firmato accordi di riservatezza con il proprio datore di lavoro. Altre dichiarazioni provengono dall'interno sotto forma di e-mail anonime o estratti di comunicazioni online.

Questi moderatori difendono i "principi" che sono stati incaricati di far rispettare. I cineasti fanno un grande sforzo per catturare la loro mentalità, senza nemmeno intervenire in modo disturbante. Gli addetti alle pulizie sembrano considerarsi responsabili di rendere la piattaforma Facebook (e quindi il mondo in generale) più sana attraverso i loro sforzi, poiché si impedisce che contenuti sospetti appaiano online. Alcuni di loro affermano che il mondo è semplicemente pazzo e che il loro ruolo è combattere il male. Tuttavia, si verificano momenti in cui le loro percezioni personali portano a interpretazioni errate della situazione.

Un frammento mostra un'immagine in cui un soldato viene scambiato per un membro dell'Isis. L'immagine viene quindi rimossa dalla pagina. In un caso, un aiuto alla pulizia postula che i rappresentanti del governo non dovrebbero essere offesi sulle pagine delle piattaforme. Un altro si paragona al controverso presidente delle Filippine Rodrigo Duterte, che ha paragonato le sue epurazioni nella guerra alla droga all'Olocausto.

Ai moderatori viene chiesto di "identificare il terrorismo" e viene loro ordinato di cancellare tutte le comunicazioni da un elenco compilato in modo discutibile di 39 organizzazioni terroristiche. Ma l'ordinanza non si limita a questo; anche gli addetti alle pulizie devono memorizzare sistematicamente tali comunicazioni a fini di monitoraggio. I leader del team controllano il lavoro di censura dei moderatori in uno scarso 25% dei casi. Ogni dipendente elabora circa 000 immagini al giorno.

Politica di censura conservatrice

Secondo queste regole meccaniche, non c'è dubbio che la fotografia vincitrice del Premio Pulitzer di Nick Ut dei bambini vietnamiti (inclusa una bambina di nove anni nuda) in fuga da un attacco al napalm sarebbe stata immediatamente rimossa. Allo stesso modo, una foto di immigrati nudi e naufraghi non sarebbe mai stata consentita. È vietata qualsiasi allusione a rapporti sessuali o anche alla nudità. In questo modo, Facebook applica modelli di censura islamici radicali. Come conferma Nicole Wong, ex responsabile di Google e Twitter, "eliminiamo 'ciò che non vogliamo nella nostra società'".

Quando la censura porta al collasso della comunicazione, della democrazia e, in definitiva, della civiltà?

Una vittima di questa politica di censura è l'artista di Los Angeles Illma Gore, che ha caricato l'immagine di un corpo nudo con un pene piccolo e la testa di Donald Trump. Viviamo in una società in cui questa immagine è stata condivisa 15 milioni di volte. Lo stesso Trump ha fatto riferimento alla foto in un dibattito pubblico subito dopo, dichiarando che non c’erano problemi con le dimensioni del suo pene. Solo pochi giorni dopo, la pagina Facebook di Illma Gore è stata chiusa insieme a tutti gli altri suoi account sui social media. È stata imbavagliata per un breve periodo, incapace di difendere la sua arte e allo stesso tempo ha perso tutti i dettagli di contatto di cui aveva bisogno per lavorare, cosa che ha messo a rischio il suo sostentamento.

Altre vittime includono attivisti di ONG come la Sezione Airwars, che deve archiviare le prove degli attacchi in guerra per ulteriori analisi delle prove e richieste di responsabilità. Senza il loro lavoro, gli aggressori avrebbero avuto libero sfogo e sarebbero stati uccisi ancora più civili. La sezione Airwars cerca di salvare ciò che può prima che il suo materiale online venga cancellato o classificato come propaganda dell’IS da Facebook. Anche il loro account YouTube è stato bannato, mentre altri account sono stati sospesi.

In due udienze pubbliche a Washington D.C. – uno davanti alla sottocommissione giudiziaria del Senato sulla guerra e il terrorismo il 31 ottobre 2017, l’altro davanti al comitato di intelligence il 1° novembre – Il rappresentante di Google ha confermato senza mezzi termini che migliaia di dipendenti lavorano all’interno del dipartimento di controllo dei contenuti dell’azienda (addio privacy!). Facebook, d'altro canto, è finito sotto esame per non aver fatto abbastanza per sopprimere la propaganda politica radicale, cedendo al contempo alle richieste delle forze politiche locali di eliminare i contenuti "fastidiosi".

I guadagni e le perdite della censura

La stessa Facebook ha affermato di non aver mai voluto svolgere questo ruolo, ma di offrire invece uno strumento di marketing globale essenziale per consumatori e fornitori. Questa strategia ha costretto l'azienda a cedere a diverse forme di pressione, ad esempio da parte del governo turco, che ha preteso che tutti i contenuti critici nei confronti del regime venissero cancellati se si voleva che l'azienda potesse accedere al mercato turco. Un blocco geolocalizzato ha poi reso inaccessibili agli indirizzi IP turchi i contenuti critici del regime. Facebook, invece, ha consentito la pubblicazione di propaganda d’odio diretta alla popolazione Rohingya – secondo l’ONU la minoranza più perseguitata al mondo – in Myanmar e Bangladesh. Nelle società in cui Internet viene utilizzato esclusivamente per accedere a Facebook e dove le persone non hanno nemmeno un account di posta elettronica, alla propaganda online viene attribuita grande importanza per la sua capacità di manipolare e distorcere la realtà. La propaganda è accettata come "informazione" affidabile, che in casi estremi può portare al genocidio. Tristan Harris, ex esperto di etica del design presso Google, ricorda che le vittime locali non avevano alcuna possibilità di denunciare o contrastare i video di odio. Al contrario, è nell'interesse di Facebook far arrivare i messaggi al maggior numero possibile di utenti e potenziali acquirenti. Niente ottiene messaggi più condivisi dell’indignazione.

Censura

Facebook invia messaggi ai gruppi di interesse, calmando così le menti agitate dei suoi membri. Antonio García Martínez, ex product manager di Facebook, afferma che l'azienda ha un ruolo attivo nel degrado delle nostre capacità comunicative. Ogni utente viene verificato attraverso i criteri informativi preselezionati di Facebook. La regola originale era che ognuno aveva diritto alla propria opinione. Oggi, questa comprensione è stata ampliata per includere la propria realtà. "Se rinunciamo ai nostri valori, alle regole accettate e al comportamento dignitoso, se rinunciamo alla richiesta di verità, non potremo più stabilire una democrazia". La perdita di questa capacità di comunicazione significa la perdita della pietra angolare di ogni sana democrazia, ha aggiunto.

"Cancelliamo 'ciò che non vogliamo nella nostra società'."
Nicola Wong

I pulitori pone una domanda fondamentale: in quali circostanze la censura dell’informazione può essere legittima e quando porta al collasso della comunicazione, della democrazia e, in definitiva, della civiltà? E nella nostra indignazione per ciò che è stato o non è stato cancellato, abbiamo trascurato di prestare attenzione al processo attraverso il quale ciò avviene – e, cosa più importante, alle persone dietro tutto ciò e le cui voci sono a malapena ascoltate nei media di oggi?

Dieter Wieczorek
Dieter Wieczorek
Wieczorek è un critico che vive a Parigi.

Potrebbe piacerti anche