top of page

ChatGPT al estrado? El Tribunal de Cali define los límites de la IA como "prueba técnica"

La integración de la inteligencia artificial en el proceso judicial ha alcanzado un nuevo nivel de complejidad: el intento de interrogar a un algoritmo en plena audiencia. Un reciente fallo del Tribunal Superior de Cali analiza la viabilidad de citar a un modelo de lenguaje avanzado como si fuera un experto técnico, estableciendo un precedente fundamental sobre la naturaleza de la prueba en la era digital.

 

1) Breve Resumen del Caso

El proceso se enmarca en una demanda por responsabilidad civil médica interpuesta por los familiares de un menor fallecido en 2017, alegando mala praxis e impericia por parte de una clínica y otros demandados. En el escrito de demanda, la parte actora solicitó una "prueba técnica basada en inteligencia artificial", pidiendo específicamente la comparecencia en audiencia de ChatGPT Pro. El objetivo era que tanto el juez como las partes pudieran formularle preguntas al modelo sobre la historia clínica, los dictámenes periciales y otros hechos relevantes del proceso, utilizando el soporte técnico de una empresa de análisis forense.

 

2) Juzgado o Tribunal Interviniente

La resolución fue dictada por la Sala Civil de Decisión del Tribunal Superior del Distrito Judicial de Cali, Colombia, bajo el voto del magistrado Dr. Homero Mora Insuasty, con fecha 17 de marzo de 2026.

 

3) Decisión Tomada

El Tribunal resolvió confirmar la decisión de primera instancia que negó el decreto de dicha prueba. Los magistrados determinaron que la petición era "abiertamente genérica, indeterminada y abstracta", además de ser incompatible con la ortodoxia procesal. Se concluyó que ChatGPT no puede ser considerado un perito ni un testigo técnico, ya que no es una persona humana y su funcionamiento no cumple con los requisitos de rigurosidad, trazabilidad y responsabilidad que exige la ley para una experticia.

 

4) Temática Novedosa en Relación a la Tecnología

El fallo aborda de manera profunda los desafíos que plantean los modelos de lenguaje a gran escala (LLM) en el ámbito probatorio:

  • La IA no es un experto: El tribunal utiliza el experimento mental de la "habitación china" para explicar que la IA no "comprende" la información, sino que realiza predicciones probabilísticas de patrones lingüísticos sin conocimiento semántico real.

  • Opacidad Algorítmica y "Alucinaciones": Se advierte sobre el riesgo de la "caja negra" de los algoritmos y la posibilidad de que el sistema genere información falsa con apariencia de autoridad.

  • Protocolo para el futuro: Aunque rechazó la prueba en este caso, el Tribunal esbozó cómo podría incorporarse la IA en el futuro: como mensajes de datos que cumplan con requisitos de fiabilidad, identificación de prompts utilizados, trazabilidad del modelo y auditoría del procedimiento.

  • No sustitución de la racionalidad humana: Se reafirma que la tecnología es un auxiliar, pero el juicio crítico y la función decisoria son exclusivos y responsabilidad del juez.


5) Tres Preguntas a Modo de Reflexión

  1. Si la IA puede procesar volúmenes de literatura médica inalcanzables para un humano, ¿debería el derecho evolucionar hacia una categoría de "perito algorítmico" con sus propias reglas de contradicción?

  2. ¿Es posible garantizar la transparencia y el debido proceso probatorio cuando las fuentes de entrenamiento de los modelos de IA son privadas u opacas?

  3. Ante la prohibición de sustituir la racionalidad humana, ¿dónde trazamos la línea entre una IA que "auxilia" en la valoración de pruebas y una que termina "influyendo" indebidamente en la convicción del juez?

 

Boletin fallo Hernandez ChatGPT


Acceder al fallo aquí


Nota: Contenido generado utilizando NotebookLM

Comentarios


bottom of page