Entiende /

Moderación Contenido

#reportedeusuarios
#detecciondeinfracciones
#sancionesalcontenido

La moderación de contenidos en acción

La moderación de contenidos en acción

Las normas comunitarias de las plataformas son el fundamento para la acción de moderar los contenidos en sus espacios. Dicho de otra forma, basándose en esas reglas las compañías deben arbitrar la interacción de los usuarios y la difusión de contenidos. Se trata de una tarea dispendiosa que combina la evaluación humana y las herramientas de detección automática e inteligencia artificial. Profundiza más sobre este tema en el aparte sobre la Sección 230.

La moderación de contenidos es una labor permanente a cargo de equipos especializados y entrenados, y se desarrolla a la par de manera reactiva y proactiva: la sanción a un usuario puede darse como respuesta a una denuncia de otro usuario, o de manera directa después de que la plataforma detecta un contenido cuestionable. Este último escenario es común en relación con la explotación sexual de menores, por ejemplo, donde existe un afán mayor por frenar la circulación de este material. Podemos hablar entonces de tres etapas en la acción de moderación de contenidos, que no necesariamente son excluyentes: 

  • Detección. Por cuenta de un reporte de un usuario o una detección automática, la plataforma identifica un contenido problemático. 
  • Evaluación. Ya sea a través de los sistemas de inteligencia artificial o mediante una revisión humana –o una combinación de ambas– , la plataforma analiza el contenido. 
  • Acción. La decisión se concreta en una consecuencia sobre el contenido o la cuenta que lo origina. El tipo de respuesta varía en función de la gravedad de la falta a la luz de las normas comunitarias. 
ir a entiende