Gli ex moderatori di TikTok fanno causa per il trauma lavorativo

Immagine per l'articolo intitolato & # 39; Vedrei che le persone vengono colpite in faccia: & # 39;  Gli ex moderatori di TikTok fanno causa per trauma sul lavoro

Immagine: Martin Bureau (Getty Images)

Un piccolo esercito di moderatori di contenuti oberati di lavoro è l’ultima linea di difesa del pubblico contro una marea di contenuti depravati e orribili caricati sui social media. Mentre i moderatori aiutano noi utenti normali a evitare il peggio del peggio, l’esposizione costante agli impulsi più oscuri dell’umanità può devastare i loro salute mentale. Ora, due ex moderatori di TikTok affermano che il gigante dei social media in rapida crescita ha lesinato sul trattamento della salute mentale per i moderatori che lottano per affrontare un assalto di incubi digitali.

“Vedrei che le persone vengono colpite in faccia”, ha detto uno in un colloquio con NPR. “E un altro video di un bambino picchiato mi ha fatto piangere per due ore di fila”.

Il causa, depositato giovedì, afferma che TikTok e la sua società madre ByteDance hanno violato le leggi sul lavoro della California non garantendo che i moderatori fossero adeguatamente protetti dal trauma emotivo causato dall’esposizione alle immagini. I moderatori, afferma la causa, agiscono come “i guardiani tra i contenuti non filtrati, disgustosi e offensivi caricati sull’app e le centinaia di milioni di persone che usano l’app ogni giorno”. La causa accusa specificamente TikTok di negligenza, esercizio negligente del controllo mantenuto e violazione della legge sulla concorrenza sleale della California.

“Difensori [TikTok and ByteDance] sono consapevoli degli effetti psicologici negativi che la visualizzazione di contenuti grafici e discutibili ha sui moderatori “, sostiene la causa. “Nonostante ciò, gli imputati non implementano standard di cura riconosciuti per proteggere i moderatori dai danni”.

Ormai, non è un segreto che i moderatori dei contenuti debbano interagire con del materiale orribile, ma la causa afferma che moderare TikTok è in realtà peggio di altre piattaforme. Mentre altre aziende mettono in atto alcuni sforzi di mitigazione del danno raccomandati da gruppi del settore, come l’utilizzo della tecnologia di filtraggio per distorcere le immagini o fornire consulenza obbligatoria per i moderatori, TikTok non, secondo la causa. [the moderators] essere esposto a migliaia di video espliciti e discutibili, tra cui violenza grafica, aggressioni sessuali e pornografia infantile “, afferma la causa.

Gli ex moderatori di TikTok Ashley Velez e Reece Young affermano di non aver alleviato un adeguato trattamento di salute mentale, il che a sua volta ha portato a un ambiente di lavoro non sicuro. I due moderatori affermano di essere stati esposti a una lista di cose orribili di merda su Internet: video di pedopornografia, stupri, bestialità, omicidi, decapitazioni e suicidi hanno attraversato le loro scrivanie.

Young ha riferito di aver visto una ragazza di 13 anni essere giustiziata da un membro del cartello davanti alla telecamera. Velez ha detto a NPR che le immagini e i video che coinvolgono bambini minorenni rappresentano la stragrande maggioranza dei contenuti preoccupanti a cui è stata esposta. “Qualcuno deve soffrire e vedere queste cose, quindi nessun altro deve farlo”, ha detto Velez a NPR.

La causa afferma che le quote di produttività richieste ai lavoratori sono “inconciliabili con gli standard di cura applicabili”.

Secondo la causa, ai moderatori viene detto di rivedere i video per non più di 25 secondi e di esprimere giudizi con una precisione superiore all’80% sul fatto che un determinato video violi o meno le regole di TikTok. Entro quei 25 secondi, i moderatori devono riflettere e considerare 100 possibili tag che potrebbero essere potenzialmente applicati per etichettare contenuti problematici, hanno affermato i querelanti. I moderatori lavorano un turno di 12 ore con un’ora di pausa pranzo e due pause di quindici minuti, ha affermato la causa.

“Controllando i post sui social media per contenuti discutibili, i moderatori dei contenuti sono i nostri soldati in prima linea in una guerra contro la depravazione: una guerra in cui tutti vogliamo vincere”, ha affermato in una dichiarazione Steven Williams, uno degli avvocati che rappresentano i moderatori di TikTok. “Il trauma psicologico e i disturbi cognitivi e sociali che questi lavoratori devono affrontare è grave. Ma vengono ignorati e i problemi non potranno che peggiorare, per l’azienda e per questi individui”.

TikTok non ha risposto alla richiesta di commento di Gizmodo.

AUSTIN, TX - 5 MARZO: I moderatori dei contenuti lavorano presso un ufficio di Facebook ad Austin, in Texas.

AUSTIN, TX – 5 MARZO: I moderatori dei contenuti lavorano presso un ufficio di Facebook ad Austin, in Texas.
Foto: Il Washington Post (Getty Images)

Oltre a quella montagna di terrore digitale, la causa sostiene che i moderatori sono anche regolarmente esposti a torrenti di teorie del complotto e disinformazione, in particolare sul Covid-19, che secondo i loro avvocati provochi anche reazioni traumatiche.

Vale la pena notare che Velez e Young erano entrambi appaltatori che lavoravano rispettivamente attraverso le società Telus International e Atrium Staffing Services. Sebbene entrambi i moderatori lavorino tecnicamente per società separate, la causa cerca ancora di ritenere responsabili TikTok e ByteDance, sostenendo che è quello che fissa le quote, controlla i lavoratori ed è responsabile delle azioni disciplinari. Sebbene un portavoce di Telus International abbia detto a NPR che forniscono consulenza sulla salute mentale agli appaltatori, Velez afferma che è assolutamente insufficiente. La moderatrice ha detto di aver avuto solo un incontro di 30 minuti con un consigliere che sembrava inondato di richieste di altri moderatori in difficoltà.

Attraverso la causa, gli avvocati dei moderatori sperano di ottenere un compenso finanziario per Velez e Young e fanno pressione su TikTok affinché fornisca screening e cure per la salute mentale alle sue migliaia di moderatori di contenuti attuali ed ex. Gizmodo ha contattato l’azienda per un commento ma non ha ricevuto risposta.

I moderatori hanno affermato, come nel caso di molti altri moderatori di aziende tecnologiche rivali, di essere tenuti a firmare accordi di non divulgazione impedendo loro di discutere le immagini che hanno visto. Dopo una giornata trascorsa a lavorare nei recessi più oscuri dell’umanità, i lavoratori devono seppellire quelle storie, incapaci di parlarne con gli amici e nemmeno con la famiglia.

“Hanno visto così tante persone che non sembrava che avessero il tempo di aiutarti davvero con ciò che stavi soffrendo”, ha detto Velez a NPR.

Mentre TikTok, come altri importanti fornitori di contenuti, schiera l’intelligenza artificiale per catturare la maggior parte dei contenuti problematici, il frenetico flusso di contenuti potenzialmente dannosi caricati sui loro siti significa che i moderatori umani rimangono indispensabili. Questi moderatori, in generale, sono spesso appaltatori indipendenti che lavorano per una paga più bassa con meno sicurezza del lavoro e meno benefici rispetto ai lavoratori impiegati nelle aziende tecnologiche.

I ricercatori dell’Università del Texas e di St. Mary’s University ha rilasciato a carta l’anno scorso ha fatto la cronaca della letteratura accademica sui moderatori dei contenuti e ha trovato ampie prove dell’esposizione ripetuta a contenuti dannosi che portano a PTSD e altri danni psicologici.

“Sebbene ci si possa aspettare che il lavoro di moderazione sia spiacevole, oggi è riconosciuto che l’esposizione ripetuta e prolungata a contenuti specifici, unita a un supporto limitato sul posto di lavoro, può compromettere in modo significativo il benessere psicologico dei moderatori umani”, scrivono i ricercatori.

In altri casi, i moderatori di Youtube e Facebook hanno secondo quanto riferito stato ricoverato in ospedale per ansia acuta e depressione a seguito di esposizione ripetuta al contenuto. E sfortunatamente per tutti, Internet non sta diventando meno incasinato. Proprio questa settimana il Centro nazionale per i bambini scomparsi e sfruttati disse 29,3 milioni di articoli di materiale pedopornografico sono stati rimossi da Internet lo scorso anno. Questo è un record e un aumento del 35% rispetto alla quantità di materiale rimosso un anno prima.

Le lotte per la salute mentale che affliggono i moderatori di contenuti in tutto il settore tecnologico hanno attirato l’attenzione del pubblico negli ultimi anni grazie a un’effusione di rapporti rivelatori e altre azioni legali. Numerosi organi di stampa hanno documentato gli ambienti di lavoro spesso scioccanti per i moderatori Facebook e Youtubeanche se poco è stato scritto sui moderatori di TikTok.

Due anni fa, Facebook sistemato una causa intentata contro di loro da migliaia di moderatori per 52 milioni di dollari. Lo stesso studio legale che rappresenta Velez e Young ha rappresentato anche i moderatori di Facebook. Quell’accordo originariamente derivava da una causa del 2018 intentata dalla moderatrice di Facebok Selena Scola che affermava di aver sviluppato un disturbo da stress post-traumatico dopo aver visto casi di stupro, suicidio e omicidio durante il suo lavoro. L’accordo di $ 52 milioni è stato disperso tra migliaia di contratti, ciascuno dei quali ha ricevuto almeno $ 1000 di risarcimento. Anche un ex moderatore dei contenuti di Youtube citato in giudizio il suo datore di lavoro nel 2020, affermando di aver sviluppato depressione e sintomi associati al disturbo da stress post-traumatico dopo aver visto decapitazioni e immagini di abusi sui minori. È giusto che TikTok, uno dei più veloci crescente anche i siti di social media online si ritroverebbero ad essere oggetto di contenzioso.

.

Leave a Comment