Juez en Colombia falla sentencia con ayuda de inteligencia artificial

9 minutos
2/2/2023
Juez en Colombia falla sentencia con ayuda de inteligencia artificial
Imagen: "Robot as a judge in a court, cyberpunk style", interpretado por DreamStudio.

A finales del año pasado fue lanzado al público ChatGPT, un modelo de inteligencia artificial desarrollado por OpenIA capaz de responder preguntas complejas y escribir respuestas coherentes. Desde entonces se han planteado toda suerte de preguntas sobre el impacto que tiene esta herramienta en materias tan distintas como la educación, la democracia o la difusión de desinformación en línea. 

Mientras todas esas discusiones tienen lugar, la inteligencia artificial se abre paso en un nuevo campo: la administración de justicia. El pasado 30 de enero, un juez de Cartagena resolvió una acción de tutela –un mecanismo judicial para proteger derechos fundamentales en Colombia– apoyado en las respuestas que le dio ChatGPT.

En el caso, el juez debía decidir si una entidad promotora de salud debía exonerar a un menor con autismo de los pagos por el servicio y además cubrir el transporte del niño desde su casa hasta los centros en que recibe su tratamiento, puesto que su madre no estaba en condición de asumir estos gastos.

Como en cualquier otro proceso, el juez evaluó la jurisprudencia de la Corte Constitucional sobre casos semejantes y las leyes correspondientes. Sin embargo, antes de decidir, la sentencia da un giro extraño. Amparado en la ley 2213 de 2022 –que permite el uso de ciertas tecnologías de la información para realizar audiencias, enviar demandas y cumplir otros trámites judiciales– el juez dice que extenderá los argumentos de su decisión conforme a la inteligencia artificial.

Suscríbete a nuestro newsletter:

Entre otras, el juez le preguntó a ChatGPT si los menores con esta condición debían estar exentos de estos pagos, si las cuotas que deben pagar los usuarios pueden ser una barrera de acceso al servicio de salud y si la Corte Constitucional había tomado decisiones favorables similares. A todas estas preguntas la herramienta respondió afirmativamente, pero solo en la primera citó una fuente concreta: la ley que regula el derecho a la salud, en la que en efecto se establece que la atención de sujetos de especial protección –incluidos niños, niñas y adolescentes– no estará limitada por razones económicas.

El juez también le consultó a ChatGPT sobre el fondo del asunto, preguntándole si en estos casos se debía conceder una tutela, a lo que la herramienta respondió:

Si se demuestra que el derecho a la salud del menor con autismo está siendo afectado por la exigencia de pagar cuotas moderadoras, es probable que la acción de tutela sea concedida y se ordene a la institución prestadora de servicios de salud cumplir con la exoneración. Sin embargo, cada caso es único y la decisión final depende de los hechos y circunstancias específicas del caso.

Según el juez, que finalmente concedió la tutela al menor, acudir a la inteligencia artificial de esta manera no es una forma de reemplazar su decisión sino de optimizar el tiempo empleado en la redacción de sentencias. Más allá de su argumento, usar ChatGPT u otros modelos de inteligencia artificial como fuentes de derecho o auxiliares de la justicia puede presentar problemas que seguramente serán debatidos a partir de este episodio.

A pesar de ser un mecanismo muy avanzado y capaz de responder preguntas con mucha elocuencia, las respuestas de ChatGPT pueden ser imprecisas o completamente desacertadas. El modelo trabaja con una base de grandes cantidades de datos que escanea en pocos segundos para ofrecer una respuesta o cumplir con la tarea que se le pide. 

De acuerdo con el propio ChatGPT, su propósito es generar textos naturales y coherentes, por lo cual podría repetir información falsa cuando se le ofrece como entrada y, en últimas, propagar desinformación. Las respuestas del chat dependen en gran medida de la forma como se le pregunte. Este punto debería verse con más cuidado en asuntos de administración de justicia, de manera similar a lo que ocurre en los interrogatorios de los procesos judiciales, donde se busca evitar que las preguntas induzcan las respuestas de los testigos o las partes.

Además, ChatGPT no está conectado a internet y sus fuentes de información son escasas para eventos posteriores a 2021, por lo cual leyes y jurisprudencia relevantes que hayan sido publicadas luego de esta fecha podrían quedar por fuera del marco de referencia y dar lugar a respuestas incorrectas.

Pero todas estas consideraciones parten del mejor de los escenarios, el más transparente. Es decir, cuando los jueces hacen patente el uso de estas herramientas, como ocurrió en esta tutela. Porque también es posible, como probablemente empiece a ocurrir en algún punto, que el empleo de la inteligencia artificial en las decisiones judiciales pase inadvertida y no haya oportunidad de cuestionar su competencia.

Puede conocer la sentencia completa a continuación:

Por:
ir al home