El Tribunal Supremo ha confirmado de forma firme que el trabajo como moderador de contenido en plataformas de Meta puede causar daños mentales graves y reconocerlos como contingencia derivada del empleo, equiparándolos en la práctica a un accidente laboral por la exposición sistemática a material extremadamente perturbador.
En una resolución emitida el pasado 4 de marzo y ahora inapelable, el alto tribunal avala que el visionado diario y prolongado de imágenes y vídeos de violencia extrema, terrorismo, mutilaciones, pederastia y otros contenidos clasificados por la propia empresa como “altamente sensibles” genera alteraciones psíquicas de consideración, directamente vinculadas a la ausencia de medidas protectoras adecuadas en el puesto de trabajo. El caso, originado en Barcelona, marca un precedente de enorme trascendencia para cientos de trabajadores que realizan esta labor invisible pero esencial en la limpieza del ecosistema digital.
Antecedentes del caso que llega al Supremo
El demandante, un ciudadano brasileño nacido en 1997 identificado como P.S., comenzó a trabajar en septiembre de 2018 para CCC Digital Services (posteriormente absorbida por Telus), la empresa subcontratada por Meta para gestionar la moderación de contenidos en Facebook, Instagram y Messenger desde las instalaciones de la Torre Glòries en Barcelona.
Apenas unos meses después de su incorporación, fue asignado al equipo de “high priority” debido a su alto rendimiento. Esta área exigía revisar los contenidos más graves, visionándolos en su totalidad y varias veces para garantizar la correcta aplicación de las políticas de la plataforma. La jornada se estructuraba con un ritmo intenso: solo cinco minutos de descanso por cada hora de exposición directa al material sensible. A pesar de contar con una sala de “wellness” y atención psicológica, los informes internos y las prácticas empresariales priorizaban la productividad sobre la salud mental, instando frecuentemente a los trabajadores a regresar inmediatamente a sus pantallas.
Ocho meses después de iniciar la relación laboral, P.S. entró en incapacidad temporal. Los síntomas incluían ataques de pánico, conductas de evitación, aislamiento domiciliario, rumiaciones hipocondríacas, sensación de disfagia, despertares nocturnos con sudoración profusa y una tanatofobia (miedo intenso a la muerte) de intensidad severa. Abandonó definitivamente la empresa en noviembre de 2020 sin reincorporarse.
Los tribunales inferiores —primero el Juzgado de lo Social número 28 de Barcelona y después la Sala de lo Social del Tribunal Superior de Justicia de Cataluña— ya habían dado la razón al trabajador, calificando la contingencia como derivada del trabajo y no como enfermedad común. La empresa recurrió ante el Tribunal Supremo, alegando una valoración desequilibrada de los peritajes. El alto tribunal desestimó el recurso y confirmó la sentencia en todos sus extremos.
La resolución del Tribunal Supremo: extractos clave
La Sala de lo Social del Supremo subraya en su resolución que “el visionado día tras día, durante toda la jornada, con una determinada exigencia de ritmo laboral, de imágenes de violencia extrema calificadas por la propia empresa como ‘altamente sensibles’ es causa determinante de la alteración psíquica”.
El fallo destaca que la mera existencia de equipos especializados dedicados a impedir la difusión pública de estos contenidos demuestra por sí sola el carácter traumático del material. Diversos expertos consultados por las partes coinciden en que la exposición repetida y sin filtros adecuados genera un trastorno de estrés postraumático laboral, comparable al sufrido por profesionales de emergencias o fuerzas de seguridad en contextos de alto riesgo.
Reacciones institucionales y de las partes implicadas
El abogado del demandante, Francesc Feliu, del bufete Feliu Fins, ha manifestado su “satisfacción absoluta”. “Todas las instancias judiciales que han intervenido se dan cuenta de que el trabajo que hace un moderador puede generar enfermedades mentales. Era un reto mayúsculo y nos han dado la razón de forma unánime”, declaró tras conocerse la firmeza de la sentencia.
Desde el ámbito sindical y asociativo, fuentes cercanas a los exempleados de la Torre Glòries señalan que alrededor del 20 % de la plantilla presentaba cuadros similares de afectación mental en los años de mayor actividad del centro. Decenas de procedimientos laborales y penales siguen abiertos contra la empresa subcontratada.
La empresa, por su parte, ha mantenido históricamente que contaba con protocolos de apoyo psicológico y espacios de descanso. Sin embargo, la Inspección de Trabajo ya había propuesto en fases anteriores un recargo de prestaciones del 30-50 % por falta de medidas preventivas suficientes, propuesta que fue avalada por la Seguridad Social.
Expertos en psicología laboral consultados por este diario coinciden en que este tipo de puestos representa uno de los riesgos psicosociales más intensos de la era digital. “Estamos ante una profesión que absorbe el peor lado de la humanidad para que el resto de usuarios no tenga que verlo. El coste psicológico es inevitable si no se aplican salvaguardas excepcionales”, explica un psiquiatra forense que ha intervenido en varios procedimientos similares.
Impacto histórico y comparación con precedentes
Esta sentencia del Tribunal Supremo marca un antes y un después en el reconocimiento de los daños mentales derivados de la moderación de contenidos digitales. Por primera vez en España, el más alto tribunal laboral confirma que exponerse de forma sistemática al horror digital constituye una contingencia profesional de primer orden.
La magnitud del precedente se compara con hitos como el reconocimiento de enfermedades derivadas del amianto en la industria, o el estrés postraumático en militares y bomberos. Diversos analistas jurídicos consultados advierten que podría abrir la puerta a una cascada de reclamaciones: si se estima como accidente laboral, las prestaciones corren a cargo de la empresa y sus mutuas, con posibles recargos; si se mantiene como enfermedad común, la carga recae en la Seguridad Social.
En un contexto más amplio, la resolución pone en cuestión el modelo de subcontratación masiva utilizado por las grandes plataformas para externalizar la limpieza de sus redes. Meta, Facebook e Instagram dependen de miles de moderadores en todo el mundo para mantener la apariencia de espacios seguros. Sin embargo, el precio humano de esa seguridad empieza a ser judicialmente incuestionable.
Consecuencias para el sector y perspectivas futuras
La confirmación firme de esta sentencia obliga a replantear las políticas de prevención de riesgos laborales en el sector tecnológico. Expertos prevén que las plataformas se verán forzadas a aumentar drásticamente las medidas de protección: rotaciones más frecuentes, límites estrictos de exposición diaria, supervisión psicológica obligatoria e independiente, e incluso indemnizaciones preventivas.
Fuentes cercanas a la patronal digital consultadas aseguran que ya se están revisando los contratos con subcontratistas para incluir cláusulas más robustas de responsabilidad compartida. Al mismo tiempo, sindicatos de trabajadores del sector alertan de que la sentencia podría incentivar una oleada de demandas colectivas en otros países europeos donde operan centros similares.
Ciudadanos anónimos que han trabajado en tareas de moderación en Barcelona expresan alivio. “Por fin alguien reconoce que no estamos locos por ver lo que vemos. Llevamos años callando porque parecía que quejarse era no soportar el trabajo”, comenta un exempleado bajo condición de anonimato.
Cierre: un cambio de paradigma en la era digital
La resolución del Tribunal Supremo no solo da la razón a un trabajador concreto, sino que coloca el foco en una realidad incómoda: la limpieza de internet tiene un coste psicológico altísimo para quienes la realizan. En un mundo donde las redes sociales son omnipresentes, la sociedad delega en un grupo reducido de personas la tarea de filtrar lo más oscuro de la condición humana.
Esta sentencia firme certifica que dicha delegación no puede hacerse a cualquier precio. El daño mental ya no es una hipótesis ni una queja subjetiva: es una realidad probada, causal y jurídicamente reconocida. Queda por ver si la industria digital asumirá las consecuencias económicas y preventivas de este nuevo paradigma, o si la historia juzgará con dureza la lentitud con la que se protegió a quienes protegían nuestra experiencia cotidiana en línea.
La incertidumbre persiste: ¿cuántos moderadores más habrán sufrido en silencio antes de que la justicia pusiera nombre a su sufrimiento? El precedente está servido, y sus efectos se extenderán durante años.
