Entiende /

Moderación Contenido

#redessociales
#normascomunitarias

Algunas normas comunitarias clave

Algunas normas comunitarias clave

Las compañías han establecido reglas para todo tipo de temas y algunas pueden llegar a ser bastante detalladas. Por ejemplo, en su política sobre fraude y engaño, Facebook prohíbe interactuar con otras personas con el propósito de obtener información, bienes o servicios que permitan intercambiar, comprar o vender hojas con respuestas de exámenes. El nivel de especificidad de algunas de estas conductas da cuenta del tipo de problemas que enfrentan estos servicios.

Aquí te contamos sobre las normas más relevantes para los creadores y te damos algunas ideas clave sobre las reglas de Facebook, Twitter y Youtube. Si quieres conocer más sobre este tema, visita Letra Chica, el proyecto de Linterna Verde y el CELE donde estudiamos en detalle las normas, cómo se aplican y cómo cambian a lo largo del tiempo.

Ten en cuenta que acá no abordamos copyright, un tema con reglas y procesos desarrollados a partir de una ley norteamericana. Entiende más sobre ese tema en esta sección

  • Desnudos y contenido sexual: ¿qué pasa con los desnudos, el contenido sexual, la solicitud o el ofrecimiento de servicios sexuales y la difusión no consentida de contenido íntimo?

Facebook y YouTube son más restrictivas: prohíben, en general, las imágenes de desnudos y actividad sexual. Por el contrario, Twitter permite estos contenidos, salvo que se trate de difusión no consentida de contenido íntimo (conocido públicamente como la mal llamada ‘pornovenganza’).

Aún así, las plataformas con restricciones estrictas hacen excepciones. YouTube permite las imágenes de desnudos cuando su propósito es educativo, documental, científico o artístico. Facebook tiene varias excepciones, como las imágenes en contextos de salud, lactancia o manifestación pública.

En 2016, Facebook recibió críticas al borrar una publicación del diario francés Le Monde sobre las políticas de gobierno de este país para la realización de mamografías que incluía una imagen del examen. Posteriormente la compañía se disculpó.
Decenas de personas protestaron en 2019 frente a la sede de Facebook en Nueva York en rechazo a la política que prohíbe la publicación de imágenes de pezones femeninos. Foto: Stephanie Keith/Getty Images
  • Elecciones y participación cívica. Twitter es la única plataforma que tiene una política dedicada a las elecciones y otros procesos de participación ciudadana, como censos o referendos. Sin embargo, Facebook y YouTube tienen reglas relevantes esparcidas en distintas políticas.

El desarrollo de estas normas fue una consecuencia directa de los señalamientos contra las plataformas después de las elecciones presidenciales estadounidenses de 2016 y la preparación para las elecciones de 2020 (esto explicaron en su momento medios estadounidenses como Ted Crunch y The Atlantic).

  • Discurso de odio. Facebook, Twitter y YouTube tienen normas para prohibir ciertos tipos de discurso de odio, en especial contra algunos grupos. Las plataformas definen un grupo de “características protegidas” alrededor de elementos como la raza, la orientación sexual y la religión, y prohíben cierto tipo de agresiones motivadas por tales características. Por ejemplo, YouTube prohíbe afirmar que las personas que pertenezcan a cierto grupo son mentalmente inferiores.

En teoría, las plataformas permiten que se hagan publicaciones donde se usa lenguaje que puede ser considerado de odio, cuando se usa de forma autorreferencial. Por ejemplo, el uso de la palabra “maricón” entre grupos LGBTI.

  • Autenticidad. Por regla general, las plataformas no se encargan de controlar si la información que divulgan los usuarios es falsa. Lo anterior tiene algunas excepciones, como el contenido multimedia manipulado y la desinformación relacionada con el coronavirus y los procesos electorales.

El enfoque para controlar la falsedad es entonces otro: las plataformas buscan detectar y frenar la actividad inauténtica, como el uso de bots para la creación masiva de cuentas o las iniciativas colectivas para instalar tendencias que constituyen spam o se usan para atacar a otros usuarios.

  • Nombres y pseudónimos. Bajo la política de nombres reales, Facebook exige que sus usuarios usen el nombre con el que se identifican legalmente. Los apodos se permiten únicamente si se derivan del nombre real (como “Pepe” para “José”). Cada perfil de Facebook debe identificar a una persona real. En contraste, Twitter no exige que sus usuarios se identifiquen con su nombre real. Esto permite entonces que haya cuentas anónimas, seudónimos y parodias. 
  • Insultos, bullying y difamación. En esta área las plataformas tienen una lista amplia de contenidos prohibidos: desde los insultos amenazantes y la incitación al suicidio hasta la expresión del deseo de que una persona sufra un daño grave o la negación de hechos violentos notorios, como asesinatos o eventos donde hubo víctimas masivas.

Facebook, en particular, ofrece distintos niveles de protección dependiendo de si las personas que reciben los mensajes son figuras públicas o no, de si tal notoriedad pública es voluntaria (como la de un actor) o involuntaria (como la de una víctima de un delito) y de si se trata de mayores o menores de edad. Previsiblemente, los menores de edad son quienes reciben mayor protección. Por ejemplo, Facebook no permite dirigirse a menores de edad no públicos mediante señalamientos sobre comportamientos delictivos o ilegales, pero no lo prohíbe en ningún otro caso. Facebook también prohíbe que te dirijas a personas no públicas comparándolas con animales culturalmente percibidos como inferiores, como las ratas. Sin embargo, esta restricción no existe para las figuras públicas voluntarias.

  • Contenido violento y gráfico. De forma similar a lo que sucede con los desnudos y el contenido sexual, la forma como las plataformas regulan el contenido violento y gráfico refleja el tipo de ambiente que buscan crear. Facebook y YouTube establecen más restricciones en busca de un espacio más familiar. Twitter limita el contenido gráfico especialmente en las áreas de mayor visibilidad, como los videos en directo o las imágenes banner del perfil del usuario. Ciertos tipos de contenido están prohibidos en todos los casos. Por ejemplo, Facebook prohíbe publicar videos de cadáveres en contextos no médicos que muestren órganos internos visibles.

    Las plataformas usan filtros o avisos –conocidos como intersticiales– para que algunas de estas publicaciones tengan una advertencia previa para los usuarios, como estos de Twitter:
ir a entiende