El eslabón débil de la cadena: así trabajan los moderadores de contenido

11 minutos
8/24/2022
El eslabón débil de la cadena: así trabajan los moderadores de contenido
"A dark call center with people underneath a pyramid of data", interpretado por Adobe Firefly.

En todas las industrias hay alguien que se encarga de hacer el trabajo sucio. En el caso de las compañías de redes sociales, el puesto le corresponde a los moderadores de contenido. Estas personas se sumergen en las aguas negras de las plataformas para revisar el contenido que comparten los usuarios y sancionar el que no está permitido, ya sea por incumplir las normas comunitarias o la ley directamente.

Cada día los usuarios suben millones de publicaciones que son automáticamente revisadas por sistemas de inteligencia artificial, los cuales evalúan si el contenido es apto para estar en la plataforma incluso antes de que esté al aire. Estos sistemas están entrenados para detectar imágenes relacionadas con actos terroristas o explotación sexual de menores, entre otros. 

La detección previa y automatizada, sin embargo, es más la excepción que la regla. El grueso de la labor de moderación de contenidos recae en agentes de carne y hueso que intentan poner en práctica los manuales internos y las horas de entrenamiento con material problemático. Se trata de decenas de miles de personas que trabajan en todo el mundo, generalmente contratados a través de servicios de outsourcing y de atención al cliente, como Teleperformance o Accenture; empresas que llegan a ganar hasta 500 millones de dólares al año por limpiar el contenido problemático de una red social como Facebook. 

Hay razones operativas y sobre todo económicas para dejar este servicio en manos de terceros. En Estados Unidos las diferencias entre los salarios de los empleados de Facebook y el de los moderadores tercerizados es abismal: mientras los primeros reciben un promedio de 240.000 dólares al año, los segundos apenas 28.800, una brecha que aumenta notablemente cuando se miran contrataciones similares en  países con salarios mínimos mucho más bajos.

Con la enorme cantidad de publicaciones que diariamente se denuncian en las plataformas, los moderadores llegan a tener menos de un minuto para tomar una decisión. La alta presión por cumplir resultados, la escasez de tiempo y de insumos adecuados para llevar a cabo estas tareas, solo deriva en errores de moderación, que pueden tener dos resultados negativos: dejar en línea un contenido problemático o eliminar uno que no incumple las normas, afectando la libertad de expresión y el debido proceso de los usuarios.

Hay otro efecto problemático más allá de la moderación, y es el impacto en la salud mental de los moderadores. Distintos estudios han demostrado los efectos negativos de la exposición continua a contenido problemático en redes sociales. Es decir, estas personas resultan afectadas por la exposición al material que precisamente deben eliminar de las plataformas: violencia explícita, maltrato animal, abuso de menores, amenazas. De hecho, un reportaje reciente de Forbes denunció que imágenes y videos de abuso sexual a menores de edad estaba siendo usado por Teleperformance para entrenar a los moderadores de TikTok. 

Los pensamientos depresivos son también una constante: un moderador de Twitter en Manila le contó al Washington Post que su cerebro reciclaba las imágenes que veía durante su jornada de trabajo y solía tener sueños en los que era víctima de un atentado suicida o de un accidente violento.

Un reportaje de The Verge de 2019 sobre las condiciones de trabajo de los moderadores de contenido en una oficina de Phoenix planteó un escenario laboral disfuncional. Para sobrellevar el bombardeo de publicaciones perturbadoras, los moderadores fumaban marihuana en los descansos y con frecuencia hacían sus labores drogados. Además, la constante exposición a videos de teorías conspirativas terminaba por distorsionar su percepción de la realidad: muchos empezaban a negar episodios como el Holocausto o los ataques terroristas del 11 de septiembre. 

Los pensamientos depresivos son también una constante: un moderador de Twitter en Manila le contó al Washington Post que su cerebro reciclaba las imágenes que veía durante su jornada de trabajo y solía tener sueños en los que era víctima de un atentado suicida o de un accidente violento. Por su parte, un moderador de TikTok aseguró a su vez que su experiencia en ese rol había sido más traumática y desafiante que sus años en el ejército estadounidense.

En más de una ocasión las plataformas han sido demandadas por colectivos de moderadores que alegan serios daños a su salud mental. En 2020, Facebook pagó 52 millones de dólares a 11,250 personas que desarrollaron síndrome de estrés postraumático o trastornos similares por ejecutar estas tareas. A mediados de este año, YouTube llegó a un acuerdo por 4.3 millones de dólares para zanjar una demanda similar. 

Las difíciles condiciones de trabajo, sumadas a la creciente demanda de las compañías de redes sociales, han dado lugar a una alta rotación en las empresas que prestan estos servicios. Como consecuencia, el liderazgo en los centros de moderación ha quedado en manos de empleados sin la experiencia suficiente para manejar adecuadamente la relación con los trabajadores y el material sensible que les llega día a día.

La moderación de contenidos es una industria en constante crecimiento: se proyecta que dentro de cinco años alcance un valor de 11.800 millones de dólares. Como en otras materias, los escándalos y la presión pública obligarán a las plataformas a tomar medidas para cambiar sus prácticas e intentar mejorar las condiciones en que se hace esta actividad. No obstante, se trata de un eslabón de la cadena del que no se habla mucho. La moderación de contenido tiene un problema básico y casi existencial: las difíciles condiciones en que trabajan los moderadores de contenido.

Por:
ir al home