Un pequeño ejército de moderadores con exceso de trabajo es la última línea de defensa contra la avalancha de contenido depravado y horrible que se sube a las redes sociales. Mientras que los moderadores ayudan a los usuarios normales a evitar lo peor de lo peor, la exposición constante a los impulsos más oscuros de la humanidad puede causar estragos en su salud mental. Ahora, dos ex moderadores de TikTok alegan que el gigante de las redes sociales escatimó en el tratamiento de salud mental de sus moderadores.
“Vi gente recibiendo disparos en la cara”, dijo uno en un entrevista con NPR. “Y otro video de un niño golpeado me hizo llorar durante dos horas seguidas”.
los demanda, presentado el jueves, afirma que TikTok y su empresa matriz, ByteDance, violaron las leyes laborales de California al no garantizar que los moderadores estuvieran adecuadamente protegidos del trauma emocional causado por la exposición a las imágenes. Los moderadores, afirma la demanda, actúan como “los guardianes entre el contenido ofensivo, repugnante y sin filtrar subido a la aplicación y los cientos de millones de personas que usan la aplicación todos los días”. La demanda acusa específicamente a TikTok de negligencia y violaciones de la ley de competencia desleal de California.
“Los acusados[TikTok y ByteDance] somos conscientes de los efectos psicológicos negativos que tiene ver contenido gráfico e inaceptable en los moderadores”, argumenta la demanda. “A pesar de esto, los acusados no implementan estándares de cuidado reconocidos para proteger a los moderadores de estos daños”.
Por ahora, no es ningún secreto que los moderadores de contenido tienen que interactuar con material horrible, pero la demanda afirma que moderar TikTok es peor que en otras plataformas. Mientras que otras empresas implementan algunos esfuerzos de mitigación de daños recomendados por grupos de la industria, como el uso de tecnología de filtrado para distorsionar imágenes o brindar asesoramiento obligatorio a los moderadores, TikTok no lo hace, según la demanda. “Esta exposición flagrante e insensible a la implementación de los estándares de atención resultó en que los demandantes [los moderadores] estuvieron expuestos a miles de videos gráficos e inaceptables, que incluyen violencia gráfica, agresión sexual y pornografía infantil”, alega la demanda.
G/O Media puede recibir una comisión
Los ex moderadores de TikTok, Ashley Velez y Reece Young, afirman que no brindaron un tratamiento de salud mental adecuado, lo que a su vez generó un ambiente de trabajo inseguro. Los dos moderadores afirman que estuvieron expuestos a una larga lista de la mierda más horrible de Internet: videos de pornografía infantil, violaciones, bestialidad, asesinatos, decapitaciones y suicidios cruzaron sus escritorios.
Young dijo que vio a una niña de 13 años ejecutada por un miembro del cartel. Vélez le dijo a NPR que las imágenes y videos que involucran a niños menores de edad representaron la gran mayoría del contenido preocupante al que estuvo expuesta. “Alguien tiene que sufrir y ver estas cosas para que nadie más tenga que hacerlo”, dijo Vélez a NPR.
La demanda afirma que las cuotas de productividad impuestas a los trabajadores son “irreconciliables con los estándares de atención aplicables”.
Según la demanda, a los moderadores se les dice que revisen los videos durante no más de 25 segundos y emitan juicios con más del 80% de precisión sobre si un video determinado viola o no las reglas de TikTok. Dentro de esos 25 segundos, los moderadores tienen que pensar y considerar 100 posibles etiquetas que podrían aplicarse para etiquetar contenido problemático, dijeron los demandantes. Los moderadores trabajan en turnos de 12 horas con un descanso para el almuerzo de una hora y dos descansos de quince minutos, según la demanda.
“Al examinar las publicaciones de las redes sociales en busca de contenido objetable, los moderadores de contenido son nuestros soldados de primera línea en una guerra contra la depravación, una guerra que todos tenemos interés en ganar”, dijo Steven Williams, uno de los abogados. representando a los moderadores de TikTok en una declaración. “El trauma psicológico y los trastornos cognitivos y sociales que enfrentan estos trabajadores es grave. Pero están siendo ignorados y los problemas solo van a empeorar, para la empresa y para esta gente”.
Además de esa montaña de terror digital, la demanda afirma que los moderadores también están expuestos regularmente a torrentes de teorías de conspiración e información errónea, particularmente sobre el covid-19, que según sus abogados también provoca reacciones traumáticas.
Cabe señalar que Vélez y Young eran contratistas que trabajaban a través de Telus International y Atrium Staffing Services, respectivamente. Aunque ambos moderadores técnicamente trabajan para compañías separadas, la demanda busca responsabilizar a TikTok y ByteDance, argumentando que es quien establece las cuotas, monitorea a los trabajadores y está a cargo de las acciones disciplinarias. Aunque un portavoz de Telus International le dijo a NPR que brindan asesoramiento sobre salud mental a los contratistas, Vélez dice que es extremadamente insuficiente. La moderadora dijo que solo tuvo una reunión de 30 minutos con un consejero inundada de solicitudes de otros moderadores angustiados.
Con la demanda, los abogados de los moderadores esperan asegurar una compensación financiera para Vélez y Young y presionar a TikTok para que evalúe y brinde tratamiento de salud mental a sus miles de moderadores de contenido actuales y anteriores. Gizmodo se ha comunicado con la empresa para hacer comentarios, pero no ha recibido una respuesta.
Los moderadores afirmaron, como es el caso de muchos otros moderadores de compañías tecnológicas rivales, que estaban obligados a firmar Acuerdos de confidencialidad eso les impedía hablar de las imágenes que veían. Después de un día de trabajo duro en los rincones más oscuros de la humanidad, los trabajadores tienen que enterrar esas historias y no hablar de ellas con amigos o incluso familiares.
Si bien TikTok, al igual que otros importantes proveedores de contenido, implementos inteligencia artificial para capturar la mayor parte del contenido problemático, la frenética avalancha de contenido potencialmente dañino que se carga en sus sitios significa que los moderadores humanos siguen siendo indispensables. Estos moderadores suelen ser contratistas independientes que trabajan por salarios más bajos con menos seguridad laboral y menos beneficios que los trabajadores empleados por empresas de tecnología.
Investigadores de la Universidad de Texas y la Universidad de St. Mary publicaron un Artículo El año pasado estudió la literatura académica sobre moderadores de contenido y encontró amplia evidencia de exposición repetida a contenido dañino que conduce al trastorno de estrés postraumático y otros daños psicológicos.
“Si bien se puede esperar que el trabajo de moderación sea desagradable, ahora se reconoce que la exposición repetida y prolongada a contenido específico, junto con un apoyo limitado en el lugar de trabajo, puede afectar significativamente el bienestar psicológico de los moderadores humanos. ”, escriben los investigadores.
En otros casos, los moderadores de YouTube y Facebook Ellos eran hospitalizado por ansiedad aguda y depresión después de la exposición repetida al contenido. Desafortunadamente para todos, Internet no está mejorando. Solo esta semana, el Centro Nacional para Niños Desaparecidos y Explotados dijo El año pasado se eliminaron de Internet 29,3 millones de elementos de material de abuso sexual infantil. Eso es un récord y un aumento del 35% de la cantidad de material eliminado el año anterior.
Los problemas de salud mental que afectan a los moderadores de contenido en la industria tecnológica han llamado la atención del público en los últimos años gracias a una serie de informes reveladores y otras acciones legales. Numerosos medios de comunicación han documentado los entornos de trabajo a menudo impactantes para los moderadores en Facebook y YouTube aunque poco comparable se ha escrito sobre los moderadores de TikTok.
Hace dos años Facebook resuelto una demanda presentada en su contra por miles de moderadores por 52 millones de dólares. El mismo bufete de abogados que representa a Vélez y Young también representó a los moderadores de Facebook. Ese acuerdo surgió originalmente de una demanda de 2018 presentada por la moderadora de Facebook Selena Scola, quien afirmó que había desarrollado estrés postraumático después de ver casos de violación, suicidio y asesinato durante su trabajo. El acuerdo de $52 millones se dispersó entre miles de contratos, cada uno de los cuales recibió al menos $1,000 en compensación. Un ex moderador de contenido de Youtube también demandado su empleador en 2020, alegando que desarrolló depresión y síntomas asociados con el trastorno de estrés postraumático después de ver decapitaciones e imágenes de abuso infantil. Es lógico que TikTok, una de las redes sociales de más rápido crecimiento aumentotambién se ha encontrado en el lado receptor del litigio.