Lavorare per Facebook è un sogno? La realtà sembra essere diversa, stando a The Trauma Floor: The secret lives of Facebook moderators in America, inchiesta pubblicata il 25 febbraio dal noto sito di tecnologia The Verge. Quantomeno a far parte non del team di sviluppatori, amministratori e marketer di Menlo Park, bensì della folta schiera di moderatori incaricati da Facebook di controllare e rimuovere dal sito i contenuti non conformi alle linee guida: dalla pornografia, alla violenza, alla discriminazione e quant’altro si possa immaginare.
Casey Newton di The Verge ha intervistato alcuni dipendenti di Cognizant, azienda indotto che presta a Facebook la forza-lavoro necessaria a mantenere il social network di Mark Zuckerberg un posto “pulito”. Ne sono emersi dettagli raccapriccianti circa le abitudini di lavoro dei circa mille individui impiegati presso la sede di Cognizant a Phoenix (Arizona).

È uno sporco lavoro, ma qualcuno deve pur farlo
Quando inviamo una segnalazione a Facebook, questa è esaminata da moderatori in carne e ossa: in base alle linee guida fornite, queste persone decidono se il contenuto debba o meno rimanere sul sito. Si tratta di un lavoro che non è ancora possibile automatizzare del tutto, sebbene siano già in uso su Facebook sistemi di rimozione istantanea di contenuti già ritenuti inappropriati.
Cognizant è un’azienda di servizi informatici con più di 260mila dipendenti al mondo, che – tra le altre cose – svolge questo compito per conto di Facebook. O, per meglio dire, se ne occupano i process executive (i moderatori) impiegati nella sede di Phoenix. Gran parte del lavoro di moderazione è svolto in outsourcing al di fuori degli Stati Uniti, ma la continua crescita del gigante californiano ha richiesto l’apertura di sedi in Arizona, California, Florida e Texas.
Come si può ben intuire, la tipica giornata lavorativa di un moderatore di Facebook può spaziare dall’aver a che fare con quisquilie di poco conto, come lievi volgarità e spam truffaldino, a contenuti ben più pesanti fatti di violenza e pornografia illegale. Mandare avanti un sito con più di un miliardo di utenti attivi espone a infinità possibilità di materiale nocivo proveniente da ogni dove. Ed è un’impresa mastodontica.
Poco è pubblicamente noto del mestiere di moderatore di Facebook: ai dipendenti è richiesta la sottoscrizione di un non-disclosure agreement, genere di contratto comune negli Usa che impone il silenzio assoluto verso l’esterno su quanto avvenga sul posto di lavoro. Ciò è necessario data la grande quantità di informazioni private degli utenti maneggiate dai moderatori ogni giorno, ma può rivelarsi un’arma a doppio taglio e prevenire la denuncia di qualsiasi tossicità o abuso. La giornata dei moderatori inizia con un controllo severo, quasi aeroportuale: i telefoni sono lasciati negli armadietti, tutti gli effetti personali che si intenda portare in postazione sono inseriti in buste di plastica trasparente. Sono proibiti penne, carta e qualunque oggetto con il quale si possa scrivere o registrare informazioni private degli utenti in modo illecito.
È a causa del non-disclosure agreement che gli intervistati di The Verge devono essere descritti con un nome di fantasia. “Chloe”, ad esempio, ha affidato al sito americano il racconto della sua prima esperienza traumatica, avvenuta in fase di tirocinio. A turno, a ciascuno dei candidati moderatori è richiesto di giudicare un contenuto di fronte agli altri, per stabilire se questo debba restare su Facebook o meno in base alle linee guida. A Chloe capita il video di un accoltellamento: con la voce tremante, mentre osserva un uomo ricevere continue pugnalate e andare a terra, Chloe spiega ai colleghi come ciò infranga la Sezione 13 dei Community Standards di Facebook. Dopo una breve pausa, trascorsa a piangere in bagno, Chloe rientra nella stanza per essere accolta dal video di un drone militare che spara alle persone dal cielo.

Traumi, strategie di adattamento e… terra piatta?
La prolungata e quotidiana esposizione a stimoli di tale natura, unita all’impossibilità di poterne parlare con i propri cari, ha condotto e favorisce nei dipendenti della Cognizant lo sviluppo di PTSD (disturbo da stress post-traumatico), lo stesso che si verifica nei militari in guerra e negli individui colpiti da improvvisi eventi catastrofici. Forte è anche la desensibilizzazione nei moderatori di Facebook, tanto che tutti in ufficio sembrano ricorrere al black humour quale metodo di compensazione, per esempio sfidandosi nella ricerca del meme più razzista od offensivo di tutti.
“Li”, altro nome di fantasia per un ex moderatore, si è reso conto di come un simile schema mentale si diffondesse oltre la battuta di sollievo: «Ciò che facevamo anneriva la nostra anima. Cos’altro fare a quel punto? […] Dovevo stare attento quando scherzavo in pubblico. Passavo il tempo a dire cose offensive – per poi rendermi conto: “Oh, merda, sono dal fruttivendolo. Non posso parlare in questo modo”». La normalizzazione delle battute a sfondo suicida è in particolare così forte che una volta – racconta “Sara” – tutti si affacciarono alla finestra per osservare un uomo sul tetto, in pausa pranzo, automaticamente convinti che fosse lì per compiere l’estremo gesto.
Altri metodi comuni tra i moderatori di Facebook per far fronte allo stress includono il ricorso ad alcool, droghe e rapporti sessuali sul posto di lavoro. Non a scopo ricreativo o dal carattere “festivo”, lo si sottolinea: si tratta di abitudini assunte in modo non sano onde sfuggire al trauma giornaliero. È sempre Li a rivelare il suo uso quotidiano di marijuana: nel corso delle brevi pause, gruppetti di impiegati si riuniscono per fumare fuori dall’edificio. «È triste, a ripensarci mi sento male. Andavamo giù, ci rimbecillivamo e tornavamo a lavorare.»
Inoltre, il carattere privato del lavoro, l’impossibilità di confidenza con l’esterno e il cosiddetto trauma bonding hanno contribuito a creare rapporti molto stretti, e molto in fretta, fra colleghi. Cosa che è risultata nel ricorso a rapporti sessuali sul lavoro come palliativo simile all’uso di sostanze: si racconta di impiegati appartati ovunque, dal parcheggio, ai bagni, alle trombe delle scale e perfino alla nursery riservata alle madri in allattamento.
Il tutto, sembrerebbe, vagamente tollerato dalla dirigenza – tanto che l’unico atto di rilievo per porre un freno ai rapporti nella nursery è consistito nel rimuovere provvisoriamente la serratura alla porta della stanza.
La compulsione non è l’unico effetto negativo del lavoro sui moderatori di Facebook: alcuni di essi, a furia di ritrovarsi continuamente sotto gli occhi materiale assurdo, hanno sviluppato paranoie d’ogni tipo. Sia che si tratti della percezione di una minaccia fisica alla propria persona, sia che il contesto sia quello del complottismo globale. “Randy” rientra in entrambe le categorie: l’ex moderatore racconta a The Verge di come, adesso, giri in continuazione con una pistola e abbia pianificato con attenzione ogni diversa via di fuga dalla propria abitazione. Inoltre, si è nel tempo convinto della bontà della teoria terrapiattista, oltre a negare l’Olocausto. Non è l’unico tra i suoi colleghi: l’aver dovuto analizzare centinaia di video relativi al recente massacro di Las Vegas ha portato alcuni di loro a credere al complottismo che vuole coinvolto più di un attentatore.

Per un pugno di dollari (e assistenza psicologica limitata)
La visita sul luogo di The Verge ha rivelato al pubblico un edificio di due piani. Il palazzo si presenta come moderno, arredato in maniera geek e volutamente connotato da elementi “positivi”, per cercare di tenere alto il morale. Oltre a eventi tematici d’ufficio e attività di routine come lo yoga, la dirigenza ha predisposto uno sportello di consulenza psicologica attivo in ogni momento. Gli impiegati hanno spiegato alla rivista come i servizi di terapia presenti siano comunque inadeguati.
Inoltre, il supporto psicologico non si estende nel tempo una volta concluso il rapporto di lavoro: nonostante i disturbi di questo genere debbano essere seguiti nel tempo, non esiste nessun piano a lungo termine e il personale è lasciato a se stesso. Forse, al di là delle paranoie, anche per questo sul posto si respira una profonda paura che – oltre agli utenti contrariati – qualche ex impiegato si presenti con cattive intenzioni. Tanto che uno dei supervisori elogia Randy per la sua abitudine di girare armato, poiché lo staff di sicurezza potrebbe non bastare contro una minaccia improvvisa.
E ad andarsene sono in molti, tra i moderatori di Facebook: non solo per la natura del mestiere, ma anche per le condizioni di lavoro già di per sé non ottimali. Lo stipendio annuale è di circa 28mila dollari, sotto la media degli Stati Uniti, e sugli impiegati sussiste pressione costante in termini di prestazioni. Quando si è assunti si parte con 100 punti, che vengono rimossi se si commette un errore. Sotto i 95, il posto è già a rischio. Questa policy aziendale è giustificata da discorsi sull’importanza del mestiere, la sensibilità dei dati utente e il potenziale danno pubblico procurato a Facebook per la diffusione di contenuti inappropriati.
Gli errori sono decisi da un gruppo di supervisori, nonostante alcune linee guida non siano del tutto chiare. I supervisori potrebbero decidere diversamente dal moderatore quando si tratta di un’area grigia e non chiaramente definita, e assegnare un errore solo per interpretazione diversa. Ciò ha portato alla nascita di regole ad hoc generate dalla consuetudine dell’ufficio: per esempio, su Facebook le immagini di asfissia a scopo sessuale non sono proibite a meno che le dita non premano a fondo la pelle del soggetto.
Ma non solo i contenuti terribili, non solo la pressione del licenziamento, e nemmeno solo lo stipendio inadeguato: nonostante tutte le amenità fornite, la giornata di lavoro sembra essere particolarmente stressante anche sul piano logistico. Come la pausa pranzo, le due quotidiane pause per il bagno sono gestite dai supervisori: data la presenza di soli tre bagni, ci sono file interminabili. Sono altresì assegnati nove minuti di wellness time, nel quale non è possibile recarsi in bagno o – come è stato ordinato a due lavoratori di religione islamica – pregare. I moderatori sono costantemente controllati da un’estensione installata nel loro browser, che devono attivare o disattivare ogni volta che si allontanano dal computer.
L’inchiesta di The Verge porta alla luce i dettagli di quello che è un mestiere molto difficile, perdipiù gestito in maniera tirannica dall’azienda datrice di lavoro. Niente vita da hipster della Silicon Valley per i moderatori di Facebook di Phoenix, Arizona. Ma nemmeno per la moderatrice assoldata dalla Pro Unlimited in California, che l’anno scorso citò Facebook in giudizio per l’insorgere di PTSD dopo aver svolto lo stesso mestiere per mesi.
Stavolta si parla addirittura degli Stati Uniti, e non del “solito” Paese emergente dove fare outsourcing sotto gli standard della decenza è – purtroppo – normalità. I moderatori di Facebook nel mondo sono circa 15mila, al soldo di diverse aziende, con politiche diverse e sede in luoghi diversi. Quelli citati nell’articolo di Casey Newton, rispetto ad altri altrove, potrebbero perfino essere quelli che se la passano meglio.