El Consejo asesor de Facebook: el ambicioso experimento sobre moderación de contenidos

8/23/2021
El Consejo asesor de Facebook: el ambicioso experimento sobre moderación de contenidos

En noviembre de 2019, Mark Zuckerberg, CEO de Facebook, anunció que crearía un órgano independiente para que revisara las decisiones tomadas por los moderadores de contenido de Facebook e Instagram. 

El Consejo asesor de contenidos –conocido también como el Oversight Board por su nombre en inglés, o más coloquialmente como la “Corte Suprema de Facebook”– empezó a funcionar en mayo de 2020, cuando se dieron a conocer los nombres de sus primeros integrantes. 

Se trata de un cuerpo de veinte expertos en libertad de expresión provenientes de distintas profesiones, incluyendo académicos, periodistas y activistas de derechos humanos. Su principal tarea es estudiar los casos de moderación de contenidos apelados por los usuarios para revocar o ratificar las decisiones tomadas por Facebook. Además, el órgano tiene la facultad de hacer recomendaciones a la compañía respecto a los temas que trata. 

En poco más de un año, el Consejo ha abordado casos relevantes sobre las normas comunitarias de esta red social y la forma como se aplican. En sus manos han caído asuntos tan delicados como la suspensión de la cuenta del expresidente Donald Trump en enero de 2021. Por cuenta de la recomendación del Consejo, Facebook modificó la manera en que manejaba el discurso de los líderes políticos

Aunque en los casos revisados por el Consejo prevalecen aquellos que involucran conflictos políticos y sociales alrededor del mundo, algunas decisiones han cambiado el panorama de lo que puede o no decirse en Facebook en un contexto más cotidiano.

El grado de detalle con el que examinan las normas comunitarias, la intención de los usuarios y el contexto de las publicaciones, le ha dado una nueva dimensión a la moderación de contenidos en Facebook.

A continuación abordamos algunas de las decisiones. 

Una revisión a las tradiciones navideñas

En diciembre de 2020, un usuario de Países Bajos publicó un video en el que aparecían dos personas blancas con la cara pintada de negro y disfrazadas de Zwarte Piet, un personaje de la tradición navideña de ese país conocido en español como “Pedro el Negro”. 

Facebook eliminó la publicación por infringir su política sobre lenguaje que incita al odio. Al revisar el caso, el Consejo tuvo en cuenta que el personaje de Pedro el Negro hace parte de una tradición cultural que muchos neerlandeses comparten sin intención racista, pero el hecho de que las personas tuvieran la cara pintada de negro implicaba una forma de caricatura vinculada con estereotipos racistas, que además se encuentra prohibida en las normas comunitarias desde agosto de 2020. Por esa razón, y por considerar que permitir contenido de esa naturaleza podría crear un entorno discriminatorio para las personas negras, el Consejo ratificó la decisión original de eliminar la publicación. 

La desinformación del covid-19 vs. las críticas al gobierno

En octubre de 2020, un usuario francés publicó un video acompañado de un texto donde cuestionaba a las autoridades sanitarias de ese país por negarse a recomendar la hidroxicloroquina y la azimotricina como tratamientos para el covid-19. Según la publicación, esos medicamentos estaban salvando vidas en otros países, mientras que el remdesivir, aconsejado por la agencia francesa, no era efectivo. 

Facebook eliminó la publicación por infringir su política de violencia y conductas delictivas, que incluye la prohibición de compartir información errónea que pueda provocar violencia o riesgos físicos. Sin embargo, al revisar el caso, el Consejo determinó que la intención del usuario había sido la de criticar una postura del gobierno y no la de promover unos medicamentos que, además, no son de venta libre en Francia. Por tanto, anuló la decisión de Facebook y solicitó que el contenido fuera restablecido.

Cuando los sistemas ven desnudos sin contexto

En octubre de 2020 un usuario en Brasil publicó en Instagram una serie de imágenes que contenían pezones al descubierto como parte de una campaña de concientización sobre el cáncer de mama. Los sistemas de detección automática eliminaron la publicación por infringir, supuestamente, la política de desnudos y actividad sexual de adultos.

La plataforma restableció el contenido antes de que se decidiera sobre el caso, pero el Consejo consideró que era importante revisarlo porque este error ponía de presente las fallas de la compañía en la supervisión humana de sus procesos de moderación. En consecuencia, entre otras cosas le recomendó a Facebook mejorar la detección automatizada de imágenes, asegurarse de que los usuarios sepan las razones por las que se eliminó su contenido y aclarar que los pezones femeninos son permitidos cuando se trata de esta clase de campañas. 

Potencialmente cualquier usuario que no esté de acuerdo con una decisión de Facebook puede apelar ante el Consejo, una vez agote el proceso dentro de la plataforma. Sin embargo, el organismo sólo selecciona unos pocos casos para su estudio. En el tiempo en que lleva operando, en el que ha recibido más de medio millón de apelaciones, se ha pronunciado catorce veces. 

También Facebook puede enviarle casos cuando se enfrenta a decisiones difíciles de moderación de contenidos, pero al igual que con las solicitudes de los usuarios, la recepción del Consejo no es la más alta. Según el primer informe trimestral de la compañía sobre el Oversight Board, de los 26 casos que le envió hasta marzo 31 de 2021, apenas 3 fueron estudiados.  

Sin embargo, los pronunciamientos de esta “Corte Suprema”, como los de los altos tribunales de cualquier país, sientan un precedente para que en el futuro Facebook resuelva los casos similares a los que se encuentra bajo las pautas de sus decisiones.

Por:
ir al home