Los algoritmos pasan al banquillo de los acusados

7 minutos
3/2/2023
Los algoritmos pasan al banquillo de los acusados
Imagen: "Justice of the Supreme Court checking a mobile phone”, interpretado por DreamStudio.

La semana pasada, la Corte Suprema de Estados Unidos inició audiencias para escuchar los argumentos de las partes involucradas en dos casos que podrían afectar la forma en la que han funcionado las redes sociales y la estructura del internet que conocemos.

En el primero, Gonzalez v. Google quienes demandan a la plataforma son los padres de una joven estudiante que murió víctima de los atentados terroristas de París en noviembre de 2015, atribuido al Estado Islámico. De acuerdo con los demandantes, Google contribuyó a que la tragedia ocurriera pues los algoritmos de YouTube, a través del sistema de recomendaciones, expusieron a usuarios a contenido extremista.

Por otra parte está Twitter v. Taamneh, un caso similar en el que los familiares de una persona muerta en un ataque terrorista en Estambul en 2017 buscan declarar a la compañía responsable por no eliminar oportunamente de su plataforma contenido mediante el cual el Estado Islámico reclutaba y entrenaba terroristas.

En el núcleo del asunto está la sección 230 de la Ley de Decencia en las Comunicaciones, una disposición de Estados Unidos que da inmunidad a los intermediarios de internet —incluyendo a las redes sociales— respecto al contenido que terceros publican en sus plataformas y que además les da facultades a estos actores para moderar conversaciones de acuerdo a sus propios criterios. La norma ha permitido el desarrollo del Internet de hoy y el crecimiento de compañías como Facebook, Twitter o YouTube, que no podrían existir si tuvieran que responder por las publicaciones de sus usuarios.

En los últimos años la sección 230 ha sido objeto de decenas de proyectos de ley que han pretendido eliminarla o modificarla de muy distintas maneras, sin que ninguna haya tenido éxito hasta ahora. Para los republicanos, comenzando por Donald Trump, la norma se ha convertido en una licencia para censurar los puntos de vista conservadores. Para los demócratas, encabezados por Joe Biden, la norma es demasiado laxa frente a la responsabilidad que las compañías de redes sociales deberían tener en el control de la desinformación y el discurso de odio.

La preocupación es que el futuro de esta ley esté ahora en manos de la Corte Suprema, una corporación que tradicionalmente ha intentado resolver problemas a través de principios universales y prácticamente inamovibles, un método que parece incompatible con la evolución constante de la tecnología, como lo han señalado los periodistas Sam Baker y Ashley Gold.

La primera audiencia del caso Gonzalez v. Google hizo patentes las dificultades de resolver un asunto tan técnico por la vía judicial. Como la demanda pretende hacer responsable a la compañía por las decisiones de sus sistemas de recomendación, las preguntas de los jueces indagaron sobre una pretendida “neutralidad de los algoritmos”, un concepto vago que podría plantearse para determinar cuándo las plataformas conservan o pierden su inmunidad por lo que recomienden a los usuarios. Sin embargo, esta noción resulta contradictoria frente a lo que en realidad significan los algoritmos, que por definición buscan siempre priorizar unos contenidos sobre otros.

Aunque es poco probable que las pretensiones de los demandantes sean acogidas —pues ni siquiera se ha intentado probar que las recomendaciones YouTube o las acciones de Twitter en efecto llevaran a que algún usuario terminara por unirse a un grupo terrorista—, la forma en la que la Corte tome las decisiones de estos dos casos puede tocar la piedra angular del mundo digital, pues como lo dijo la propia juez Elena Kagan durante la audiencia de Google: los jueces “no son los nueve mayores expertos de Internet”.

Este artículo apareció originalmente en Botando Corriente, nuestro newsletter. Puedes suscribirte aquí:

Por:
ir al home