Trabaja de moderadora en TikTok, ve 1.200 vídeos al día y el contenido que se encuentra en varios de ellos hace que pida la baja: "Cóctel molotov"
Su historia revela el lado más oscuro de las redes sociales y la falta de protección a quienes las vigilan

Publicado el
3 min lectura
Una ex trabajadora de la empresa Majorel, subcontratada por TikTok, ha presentado una querella por las graves consecuencias psicológicas que le dejó su labor como moderadora de contenido. Su abogado, Francesc Feliu, denuncia una “presión inhumana” y condiciones laborales “insostenibles”.
Decidir en solo 16 segundos si un video que muestra una decapitación incumple la normativa de TikTok. Esta es solo una de las tareas que realizaba una moderadora de contenido en una empresa subcontratada por la red social. La mujer ha interpuesto una querella contra Majorel, compañía con sede en Barcelona, y contra TikTok, por las graves secuelas psicológicas que, asegura, le ha provocado su trabajo durante cuatro años: trastorno de estrés postraumático, ansiedad y depresión.
Según relata su abogado, Francesc Feliu, en La Tarde, su clienta fue despedida tras reincorporarse de una baja médica por causas psiquiátricas. “Ahora está pasando por un momento muy duro. Sigue en tratamiento psicológico y psiquiátrico. El trastorno de estrés postraumático es una enfermedad muy incomprendida, como muchas otras mentales”, explicó.

Al día la trabajadora veía entre 800 y 1.200 vídeos
La trabajadora debía visionar entre 800 y 1.200 vídeos al día, en jornadas de ocho horas durante los fines de semana. Muchos de ellos, según Feliu, contenían contenido “altamente perturbador”, incluyendo asesinatos, abusos sexuales, decapitaciones o pedofilia. “Un cóctel molotov a todos los niveles. Nadie puede aguantar eso”, sentenció el abogado.
SIN PROTOCOLOS ADECUADOS
Uno de los aspectos que más critica la querella es la ausencia de mecanismos de apoyo psicológico cuando comenzó a trabajar en 2019. “El llamado ‘departamento de acompañamiento psicológico’ no se instauró hasta 2021. Dos años después de que ella empezara”, aseguró Feliu, citando incluso la inspección de trabajo como prueba de este retraso.
Durante esos años, las pausas eran mínimas: cinco minutos de descanso por cada hora de trabajo. “Se les aplicaba el convenio del Contact Center, como si fueran teleoperadores. Pero revisar vídeos con suicidios, bullying o violaciones no es lo mismo que atender llamadas. Es un sinsentido”, afirmó el abogado.
En la querella se detalla que los moderadores también debían revisar contenido que promovía conductas autolesivas, acoso escolar, discursos de odio e incluso anuncios de plataformas eróticas como OnlyFans. “No solo se permitía ese contenido, es que muchas veces se promovía. Y la empresa no actuaba”, denunció Feliu.

TikTok e Instagram
uNA ESTRUCTURA DISEÑADA PARA ELUDIR RESPONSABILIDADES
La querella no solo va dirigida contra Majorel. También incluye a TikTok, tanto en su filial española como en la sede europea en Irlanda. “Estas plataformas se escudan en un entramado de subcontratas para desentenderse. Pero al final, el control lo tiene TikTok. Ellos marcan los ritmos, las normas y los objetivos de productividad”, explicó Feliu.
El abogado cuenta con experiencia previa en casos similares. Desde 2020 ha representado a varios moderadores de contenido, también en empresas vinculadas a otras redes como Meta. Según su testimonio, las denuncias han ido en aumento y algunas compañías han comenzado a tomar medidas: “Meta empezó a introducir cambios a finales de 2023. Pero hace apenas unos días rescindieron el contrato con TELUS International, su subcontrata en Barcelona. Así que todos esos avances se han ido al traste”.

El trabajo no le compensaba económicamente
Sobre si estos trabajos compensan económicamente, Feliu es tajante: “No. Se cobraban unos 2.400 euros en el caso de Meta y algo menos en TikTok. Pero ninguna cifra justifica la exposición a este tipo de contenido y la presión diaria que sufren”.
La querella busca no solo un reconocimiento legal del daño sufrido, sino también un debate más amplio sobre las condiciones laborales de los moderadores de contenido, esos filtros invisibles que permiten que millones de usuarios consuman vídeos sin ver el lado más oscuro de internet.