Así son las reglas de las plataformas para estas elecciones

2/23/2022
Así son las reglas de las plataformas para estas elecciones

Muchas cosas han cambiado en el debate público digital en Colombia desde las últimas elecciones. La pandemia, la tensa campaña en Estados Unidos en 2020 y su dramático epílogo con la toma del Capitolio, entre otros, dejaron huella en las normas de las redes sociales, que de distintas maneras intentaron enfrentar el contenido problemático que inundó sus plataformas. 

Si bien las compañías ya tenían normas relacionadas con contextos electorales, es evidente que algunas nuevas reglas son una reacción directa a los acontecimientos de Estados Unidos. Facebook, por ejemplo, prohibió mensajes que buscaran disuadir a los votantes de ir a las urnas por el riesgo a contagiarse de covid-19. Twitter, por su parte, anunció sanciones para quienes publicaran información engañosa sobre los resultados

Aunque esos cambios se introdujeron gradualmente y se hicieron de cara a la contienda entre Donald Trump y Joe Biden, puede influir en la discusión electoral en Colombia –como ya ha pasado en otras partes del mundo–. En Circuito pasamos por un escáner las políticas de Facebook, Twitter, YouTube y TikTok y esto fue lo que encontramos.

Las preocupaciones de las plataformas

En general, las compañías han orientado sus políticas sobre elecciones a atacar cuatro frentes. El primero de ellos es la desinformación, entendida como el contenido que pretende engañar sobre las condiciones de una elección o las calidades de un candidato. Las reglas que las plataformas han establecido incluyen prohibiciones para publicar información falsa sobre las fechas y los lugares de votación, los procesos de conteo de votos o los requisitos para que una persona sea elegida. 

Entre las distintas formas de desinformación en redes sociales, se encuentra también el contenido manipulado, que en algunas plataformas tiene una política específica. Se trata de videos o imágenes alterados para engañar o confundir, como mostrar falsamente que un candidato dijo algo que en realidad nunca manifestó. Este tipo de desinformación aplica a métodos de edición tan sofisticados como los deepfakes –donde se usa la inteligencia artificial para crear imágenes que parecen reales–, pero se refiere incluso a formas más sencillas de engañar, como compartir una foto sin contexto o con un contexto falso.

Este tuit es un ejemplo de información falsa sobre la elegibilidad de los candidatos.


La segunda categoría son las normas encaminadas a impedir la interferencia e intimidación en los procesos electorales. Se trata de contenido que afecta la participación de los votantes al disuadirlos de asistir a las urnas o incitarlos a alterar el proceso. Es el caso de las publicaciones que afirman que ir a votar tendrá como consecuencia problemas con la policía, o las que llaman a la ciudadanía a atacar los lugares de votación o a presentarse en ellos con el propósito de intimidar a los jueces o veedores.

En tercer lugar, están las prohibiciones directamente relacionadas con la comisión de delitos electorales. En este sentido, solo Facebook tiene normas para prevenir que su plataforma se convierta en un medio para el fraude, al atacar publicaciones que ofrezcan la compra de votos o que apoyen la participación ilegal en una elección.

Otra categoría la conforman las reglas para evitar la deslegitimación de un proceso o de los resultados de una elección. Esta clase de normas le impiden a un candidato adjudicarse la victoria sin que haya información oficial, o afirmar que los resultados han sido alterados.

¿Qué pasa si alguien incumple estas normas?

Más allá de la postulación de las normas, la pregunta de fondo es cómo se aplican y cuáles son las consecuencias de su incumplimiento. Algunas plataformas se limitan a enunciar la prohibición, mientras que otras describen en detalle el efecto que de allí se deriva. 

Si bien Facebook tiende a explicar en detalle qué contenido está prohibido y cómo podría violarse alguna de sus normas, no define las sanciones o apenas las menciona escuetamente. De las políticas que podrían aplicarse en torno a un proceso electoral, solo dos están expresamente señaladas: la eliminación de contenido manipulado y la eliminación de cuentas que suplanten la identidad de otra persona u organización. En todo caso, estas aclaraciones no resuelven preguntas sobre los procesos, como lo que podría pasar en casos de reincidencia.

Twitter, por su parte, tiene todo un catálogo de medidas según la gravedad y el historial de incumplimiento de los usuarios, entre las que se encuentran la eliminación de los tuits, el bloqueo temporal o permanente de una cuenta y la aplicación de etiquetas para dar más contexto a una publicación o para advertir sobre su contenido. Para su política de integridad cívica –donde agrupa las reglas sobre elecciones y otros procesos ciudadanos– Twitter tiene un sistema de strikes donde las faltas acumuladas desencadenan en sanciones mayores. Tras cinco incumplimientos, la plataforma puede suspender definitivamente una cuenta.

En esa misma línea funciona YouTube, que para todas sus políticas tiene un sistema de faltas. Ante un incumplimiento, la plataforma puede restringir la publicación de videos o historias, la creación de miniaturas personalizadas o la edición de listas de reproducción, entre otras medidas. Al acumular tres faltas en un periodo de 90 días, el canal será eliminado permanentemente. 

Pese al reciente avance de las plataformas en el desarrollo de políticas relacionadas con elecciones, vale la pena preguntarse qué tan activa será su aplicación fuera de Estados Unidos.

Estas normas especiales sobre procesos electorales deben entenderse en el escenario más amplio de las reglas generales y otras consideraciones de las plataformas. Por ejemplo, según el sistema de comprobación cruzada de Facebook, antes de sancionar a una cuenta de alto impacto –de una persona con reconocimiento público– se hace una revisión adicional por parte de un moderador de contenido, el equipo de mercados o incluso un directivo de la compañía. 

Facebook y Twitter cuentan además con una excepción de interés público, según la cual un contenido prohibido no será eliminado por la importancia que supone conocer qué piensa una figura pública –un funcionario, un candidato o un partido político– sobre determinado tema.

A pesar de infringir su política de integridad cívica, Twitter decidió no eliminar este tuit de 2020 de Donald Trump en el que aseguraba que el voto por correo permitía que una persona votara más de una vez.


Por último, pese al reciente avance de las plataformas en el desarrollo de políticas relacionadas con elecciones, vale la pena preguntarse qué tan activa será su aplicación fuera de Estados Unidos. Según se conoció el año pasado, Facebook ha tenido fallas para detectar contenido prohibido en idiomas distintos al inglés y para comprender contextos específicos. Es posible que las elecciones presidenciales en Colombia no representen una preocupación muy significativa para las plataformas, que diseñaron sus políticas con la mirada puesta en otros lugares. Es el caso de una norma de YouTube que prohíbe afirmar que hubo un fraude electoral, la cual solo aplica para Estados Unidos y las elecciones federales alemanas de 2021.

Si algunas plataformas caminan, TikTok apenas gatea

A pesar de su crecimiento masivo en los últimos años, las normas comunitarias de TikTok no están tan desarrolladas como las de otras plataformas. Toda su política sobre elecciones se reduce a una cláusula amplia que prohíbe publicar “contenidos que engañen a los miembros sobre las elecciones u otros procesos cívicos”. Esta fórmula no ahonda en lo que podría considerarse contenido engañoso ni permite saber qué pasaría en caso de que, por ejemplo, alguien quisiera adjudicarse una victoria antes de tiempo.

Esta indeterminación resulta problemática cuando por primera vez en Colombia los candidatos políticos se están montando al tren de los videos cortos y las tendencias de esta red social, donde por lo pronto no están cubiertos todos los frentes de contenido nocivo para un contexto electoral.

Es importante señalar que el hecho de que existan estas nuevas reglas no significa que otras más generales no apliquen. Por ejemplo, aunque la política electoral de TikTok se reduzca a una frase sobre desinformación, una amenaza a un funcionario electoral probablemente sería castigada bajo la norma de extremismo violento. 

De cualquier forma, más allá de que existan reglas suficientemente detalladas, queda sobre la mesa la pregunta de qué tanto intervendrán los equipos de moderación de las plataformas en países como Colombia o Chile –el primero con las elecciones generales y el segundo con el plebiscito de salida de la convención constitucional–. Otras elecciones en la región –como las de Chile o Perú– no han merecido el despliegue que las plataformas pusieron en marcha para Estados Unidos o Alemania. 

Cualquier escenario presentará retos y tensiones: si las plataformas no intervienen, la crítica estará centrada en la falta de consistencia y escalabilidad en la moderación de contenidos. Por el contrario, si las redes sociales aplican de manera decidida sus reglas, los cuestionamientos se dirigirán a la legitimidad y validez de tales decisiones y la posibilidad de controvertirlas. Un candidato que sea suspendido de alguna plataforma o cuyo contenido sea eliminado, probablemente lo denunciará públicamente como un acto de censura. 

La siguiente tabla indica qué clase de contenido relacionado con elecciones prohíben las plataformas. En las columnas de la derecha se señala si la plataforma tiene una norma específica para ese tipo de publicaciones. 


Por:
ir al home