Cuando se habla de moderadores de contenido, la imagen que suele venir a la mente es la de empleados que mantienen limpios los muros de Facebook o los feeds de Instagram. Sin embargo, pocos conocen la carga emocional y psicológica que llevan estos trabajadores, que se ven obligados a enfrentarse a la crudeza de vídeos que incluyen suicidios, asesinatos y violaciones.
Un reciente reporte de El País, narra detalles sobre las situaciones que tienen que enfrentar los moderadores de Meta.
La sala de juegos que no juega a favor y la falta de apoyo psicológico
En una empresa subcontratada por Meta, un moderador se vio abrumado después de ver repetidamente contenido extremadamente violento. En busca de ayuda, fue dirigido a la «fun floor», una sala de juegos con una mesa de ping pong. Paradójicamente, la supuesta área de relajación no ofreció ningún alivio, dejando a este empleado lidiando con el impacto emocional.
En otro episodio, tras un ataque de pánico, se le permitió visitar el «psychology floor» dos horas después. Sin embargo, la experiencia con la psicóloga de la empresa no fue lo que esperaba. Aunque sacó sus preocupaciones, la respuesta fue menos empática de lo que necesitaba, recibiendo mensajes que le instaban a ser más fuerte y recordándole que el tiempo de la sesión se agotaba.
Estos moderadores no solo deciden la publicación de noticias falsas o imágenes que no cumplen con la política de Meta, sino que también se enfrentan al contenido más brutal. Evalúan, censuran y, en casos extremos, envían el material a las autoridades. Son guardianes invisibles de las plataformas digitales, pero la oscuridad de su trabajo a menudo se pasa por alto.
CCC Barcelona Digital Services en el foco
En 2018, CCC Barcelona Digital Services ocupó varias plantas de la torre Glòries en Barcelona. Sin embargo, la investigación de La Vanguardia reveló condiciones laborales precarias. La Inspección de Trabajo impuso una multa en 2022, pero la empresa canadiense Telus International, propietaria desde 2020, niega las acusaciones y afirma contar con medidas de seguridad suficientes.
Un moderador de contenido, después de sufrir problemas de salud mental, buscó reconocimiento legal. Aunque inicialmente calificado como enfermedad común, un fallo reciente del juzgado de lo social número 28 de Barcelona reconoció que su enfermedad mental fue causada exclusivamente por el estrés laboral, marcando un precedente significativo.
Contratos de confidencialidad y consecuencias personales
El trabajador afectado prefiere permanecer en el anonimato debido a estrictos contratos de confidencialidad. La cobertura mediática de su caso le hace revivir experiencias traumáticas, pero destaca que su lucha está alentando a otros a buscar justicia. La realidad de los moderadores a menudo se oculta tras acuerdos de confidencialidad que les impiden compartir sus experiencias.
Cuando este empleado comenzó, no entendía la magnitud de la violencia que encontraría. A pesar de que el trabajo está bien remunerado, carece de requisitos de experiencia o formación. Los moderadores a menudo son atraídos por la idea de trabajar para Meta, pero las ilusiones se desvanecen rápidamente cuando se enfrentan a la crudeza del contenido.
¿Entrenar a la inteligencia artificial con experiencias traumáticas?
El proceso de moderación, según las revelaciones, plantea dudas sobre la ética. La espera forzada para calificar videos violentos sugiere un posible entrenamiento de inteligencia artificial a expensas de la salud mental de los moderadores. La empresa no aclara si tal proyecto existe, pero las sospechas persisten.
Telus International, en respuesta a las acusaciones, defiende su programa de bienestar y asegura haber reducido las bajas laborales relacionadas con la salud mental. Afirma proporcionar apoyo médico externo, consejeros las 24 horas y tecnología para proteger a los empleados de contenido perturbador. Sin embargo, la empresa enfrenta resistencia y la sentencia reciente podría impulsar cambios en las condiciones laborales.
A pesar de ser esenciales para el funcionamiento de las redes sociales, los moderadores de contenido a menudo enfrentan condiciones laborales difíciles. La sentencia reciente podría marcar un punto de inflexión, impulsando cambios necesarios en la forma en que estas empresas gestionan la salud mental y el bienestar de aquellos que mantienen las plataformas digitales en funcionamiento.