¿Qué está haciendo la industria de la IA para proteger la integridad electoral?

6 minutos
1/30/2024
¿Qué está haciendo la industria de la IA para proteger la integridad electoral?
“Contemporary digital artwork showcasing a robot politician in a realistic setting”, Dall-E.

Como antesala al calendario electoral de 2024, que incluye más de 60 elecciones alrededor del mundo, OpenAI –la compañía detrás de ChatGPT– anunció medidas para hacer frente a los usos problemáticos que sus tecnologías pueden tener en el engaño a los votantes y la distorsión del debate público.

En su comunicado, OpenAI asegura que ahora está prohibido utilizar sus servicios para desarrollar chatbots que suplanten a candidatos o instituciones públicas o que pretendan disuadir a la personas de participar en procesos democráticos con información falsa. Además, la compañía aclaró que busca evitar que sus modelos, que permiten crear contenido masivamente, sean utilizados para llevar a cabo operaciones de influencia.

Ya en 2023, el auge de la inteligencia artificial dio lugar a varios casos en los que contenidos sintéticos en audio, texto y video fueron utilizados para atacar rivales en campañas políticas, como ocurrió con las elecciones presidenciales en Eslovaquia y Argentina. A su vez, en los últimos años la inteligencia artificial ha sido usada por regímenes en América Latina para promover propaganda oficial o para atacar a opositores políticos en países como Nicaragua o Venezuela.

La compañía también indicó que mientras termina de evaluar qué tan efectivas pueden ser sus tecnologías para persuadir a las personas, estará prohibido desarrollar aplicaciones para campañas políticas y lobbying. A pesar de la prohibición, las ventajas de utilizar la IA con estos propósitos será seguramente muy tentador para muchos partidos y agencias de márketing político en 2024, más cuando se ha probado su efectividad.

Así ocurrió el año pasado en Estados Unidos, cuando el Partido Demócrata probó enviar mensajes generados con IA para recolectar fondos. Como resultado, la campaña tuvo más respuesta del público y se recibieron más donaciones que en los casos en los que los textos eran redactados por personas.

Los anuncios de OpenAI se presentan en un momento en el que el potencial de estas tecnologías para escalar narrativas falsas en redes sociales es considerada una amenaza grave para la humanidad. Por ejemplo, el Reporte de riesgos globales presentado recientemente en el Foro Económico Mundial ubicó la desinformación y la información engañosa como los principales riesgos globales a corto plazo, por encima de la crisis climática o los conflictos armados internacionales.

De acuerdo con el documento, la desinformación en contextos electorales, impulsada por técnicas de IA, “podría desestabilizar seriamente la legitimidad real y percibida de nuevos gobiernos electos, presentar riesgos de disturbios políticos, violencia y terrorismo, y una erosión de los procesos democráticos a largo plazo”.

Aunque es importante que OpenAI avance en el diseño de normas que prevengan los efectos más nocivos de la IA, sus esfuerzos parecen insuficientes para contener este fenómeno. Es necesario que las compañías de desarrollo de IA inviertan recursos para construir equipos y sistemas de moderación de contenidos que les permitan aplicar sus propias normas, un asunto con el cual OpenAI ya ha tenido dificultades.

Hace poco, por ejemplo, se conoció que la GPT Store, el marketplace de OpenAI para ofrecer modelos basados en ChatGPT creados por otros usuarios, se había llenado de simuladores de novias, a pesar de que sus normas prohíben desarrollar modelos que ofrezcan relaciones románticas sintéticas.

OpenAI es uno de los principales actores del sector, pero la contención de los riesgos de la IA involucra a un ecosistema mayor del que también hacen parte las plataformas de redes sociales y otras compañías de desarrollo que no se encuentran en el radar de la opinión pública, la prensa o los reguladores, y por tanto tienen menos presión para desarrollar productos seguros.

Incluso otros peces gordos de la industria muestran esfuerzos modestos para proteger la integridad electoral. En diciembre pasado, Google anunció que restringiría las búsquedas relacionadas con elecciones en Bard, el producto con el que le compite a ChatGPT, así como en su “experiencia generativa de búsqueda”, que introduce respuestas con IA en el buscador tradicional. Sin embargo, su política de uso de IA generativa no incluye normas específicas sobre la creación de contenido político o electoral, y se limita a prohibir el uso de sus plataformas para generar y distribuir contenido engañoso, una cláusula amplia que no apunta a abarcar del todo el posible impacto de esta tecnología en la democracia.

Este artículo apareció originalmente en Botando Corriente, nuestro newsletter. Puedes suscribirte aquí:

Por:
ir al home