Las normas comunitarias de las plataformas son el fundamento para la acción de moderar los contenidos en sus espacios. Dicho de otra forma, basándose en esas reglas las compañías deben arbitrar la interacción de los usuarios y la difusión de contenidos. Se trata de una tarea dispendiosa que combina la evaluación humana y las herramientas de detección automática e inteligencia artificial. Profundiza más sobre este tema en el aparte sobre la Sección 230.
La moderación de contenidos es una labor permanente a cargo de equipos especializados y entrenados, y se desarrolla a la par de manera reactiva y proactiva: la sanción a un usuario puede darse como respuesta a una denuncia de otro usuario, o de manera directa después de que la plataforma detecta un contenido cuestionable. Este último escenario es común en relación con la explotación sexual de menores, por ejemplo, donde existe un afán mayor por frenar la circulación de este material. Podemos hablar entonces de tres etapas en la acción de moderación de contenidos, que no necesariamente son excluyentes: