OBSERVACIÓN: Este artículo contiene descripciones que algunos pueden encontrar perturbadoras. Por favor, lea a su propia discreción.
Une action en justice fédérale a été déposée contre le géant des médias sociaux TikTok, alléguant que l’entreprise a fait preuve de négligence en ne protégeant pas les employés des traumatismes émotionnels causés par la visualisation «d’images hautement toxiques et extrêmement dérangeantes sur le lugar de trabajo».
La demanda, que busca el estatus de demanda colectiva, fue presentada en California el 24 de marzo por dos excontratistas de TikTok que trabajaban como moderadores de contenido. La empresa matriz de TikTok, ByteDance, también figura como demandada en la demanda.
Los demandantes Ashley Velez y Reece Young afirman que gran parte del contenido que se les encomendó moderar incluía «abuso sexual infantil, violación, tortura, bestialidad, decapitaciones, suicidio y asesinato».
La plataforma china de redes sociales TikTok es un gran centro para compartir videos de formato corto, con más de mil millones de usuarios activos mensuales a partir de septiembre de 2021.
TikTok no ha respondido públicamente a estas acusaciones en el momento de escribir este artículo. En una demanda anterior (ahora retirada), un portavoz de la compañía dijo que TikTok no comenta sobre litigios en curso.
Leer más:
Ruedas versus puertas: ¿de qué lado estás en este acalorado debate en Internet?
Según la demanda, se suben hasta 90 millones de videos a TikTok en un solo día, muchos de los cuales contienen contenido perturbador. En el segundo trimestre de 2021, por ejemplo, TikTok eliminó al menos 8,1 millones de videos por violar las pautas de la comunidad.
Aunque Vélez y Young fueron contratados como contratistas, por Telus y Atrium Staffing Services, respectivamente, alegan que TikTok estableció las pautas de moderador y las cuotas que siguieron.
En la demanda, Young alega que vio un video de un «niño de trece años ejecutado por miembros del cartel».
Los demandantes también alegan que los moderadores están expuestos repetidamente a teorías de conspiración, «incluidas, entre otras, sugerencias de que la pandemia de COVID-19 es un fraude, distorsiones de hechos históricos como la negación del Holocausto, «desafíos» que implican un comportamiento de alto riesgo, creencias marginales, discurso de odio y desinformación política.
Este tipo de contenido, según la demanda, puede provocar “reacciones traumáticas”.
Young y Vélez, representados por abogados de Joseph Saveri Law Firm, LLP, dicen que trabajaron 12 horas al día (con dos descansos de 15 minutos y un descanso para almorzar de una hora) para revisar y moderar el contenido en TikTok para evitar que lleguen imágenes gráficas. la aplicación. usuarios
Young y Vélez comenzaron su empleo en 2021, con Young trabajando durante 11 meses y Vélez durante siete meses.
Los demandantes «sufrieron un estrés y un daño psicológico inmensos» y buscaron asesoramiento sobre su tiempo y esfuerzo, según la demanda. La demanda afirma que esto se debe a que TikTok no proporcionó las medidas de soporte adecuadas antes y después de ver el contenido gráfico.
En lugar de ayudar a los moderadores de contenido a lidiar con el estrés y el trauma en el lugar de trabajo, la demanda afirma que TikTok impone «estándares de productividad y cuotas a sus moderadores de contenido que son inconsistentes con los estándares de atención aplicables».
Leer más:
TikTok suspenderá la creación de nuevos contenidos en Rusia, Netflix detiene el servicio
Young y Vélez dicen que tenían que cumplir con estrictas cuotas de cantidad y precisión cuando trabajaban como moderadores de contenido, lo que les obligaba a ver videos durante no más de 25 segundos mientras mantenían una tasa de precisión del 80 %.
Para cumplir con las cuotas, la demanda alega que los moderadores a menudo revisan varios videos al mismo tiempo.
“Veríamos la muerte y la pornografía gráfica, gráfica. Vi a niños menores de edad desnudos todos los días”, dijo Vélez a NPR. «Estaba viendo personas recibiendo disparos en la cabeza, y otro video de un niño siendo golpeado me hizo llorar durante dos horas seguidas».
Esta no es la primera vez que un moderador de contenido demanda a TikTok. En diciembre de 2021, otra exempleada demandó a la plataforma de redes sociales después de «desarrollar un trauma psicológico como resultado de su trabajo». NPR informó que esa demanda se retiró el mes pasado, antes de que se pudiera llegar a un acuerdo y después de que sus abogados anunciaran que había sido despedida.
Sin embargo, si la demanda presentada por Young y Vélez se convierte en una demanda colectiva, seguiría los pasos de un caso histórico contra Facebook (ahora Meta Platforms), que llegó a un acuerdo de US$52 millones en mayo de 2020.
Esa demanda alegaba que los moderadores de contenido empleados por Meta habían desarrollado problemas de salud mental como resultado de la violencia gráfica generalizada que vieron en el trabajo. En este caso, a los moderadores individuales se les pagó un mínimo de 1000 dólares estadounidenses cada uno, dependiendo de la gravedad de la angustia emocional derivada de su empleo.
© 2022 Global News, una división de Corus Entertainment Inc.
.
