Cuando la Inteligencia Artificial "Alucina": Un Análisis del Caso "Acevedo" y la Verificación en la Praxis Legal
- Prosecretaría de Políticas Digitales FCJyS-UNLP
- 16 sept
- 4 Min. de lectura
La irrupción de la inteligencia artificial generativa en el ámbito jurídico ha traído consigo tanto promesas de eficiencia como nuevos desafíos. El reciente fallo de la Cámara de Apelación en lo Civil y Comercial de Morón, Sala I, en la causa "Acevedo, Gerardo Gabriel c/ Cáceres Mareco Willian Arsenio y Agrosalta Cooperativa de Seguros Limitada s/ Daños y Perj. Autom. c/ Les. o Muerte (Exc. Estado)", pone de manifiesto una de estas problemáticas emergentes: las "alucinaciones" de la IA y la imperiosa necesidad de verificación.
1) Breve Resumen del Caso
El caso se originó a partir de una demanda por daños y perjuicios automotores que, en primera instancia, fue resuelta a favor del actor. Este, sin embargo, interpuso un recurso de apelación, presentando una expresión de agravios el 26 de mayo de 2025. La cuestión central para la Cámara de Apelación fue determinar la suficiencia técnica de los fundamentos de este recurso. Tras un exhaustivo análisis, el tribunal consideró que la argumentación era "notoriamente insuficiente", ya que se basaba en la cita de fallos y precedentes que resultaron inexistentes o imposibles de localizar en las bases de datos judiciales y registros del tribunal. Adicionalmente, se aludió a una tasa de interés no habitual en esa jurisdicción. Esta falta de solidez en la fundamentación llevó al tribunal a cuestionar la validez del recurso de apelación.
2) Juzgado o Tribunal Interviniente
La sentencia fue dictada por la CAMARA DE APELACION EN LO CIVIL Y COMERCIAL SALA I - MORON, en la Provincia de Buenos Aires, el 15 de septiembre de 2025. Los jueces firmantes fueron la Dra. Liliana Graciela Ludueña y el Dr. Gabriel Hernán Quadri.
3) Decisión Tomada
La Cámara de Apelación resolvió declarar desierto el recurso de apelación interpuesto por la parte actora, con costas al apelante, debido a la notoria insuficiencia técnica de su fundamentación. Los argumentos del apelante, basados en citas parciales y no localizables de fallos, no configuraron una crítica "razonada" de la sentencia de primera instancia, tal como lo exige el artículo 260 del Código Procesal Civil y Comercial (CPCC).
Más allá de la deserción del recurso, la sentencia incorporó una decisión de gran relevancia en el ámbito tecno-jurídico:
Poner en conocimiento del letrado de la parte actora las circunstancias señaladas respecto a las citas incluidas en su presentación.
Comunicar esta decisión al Colegio de Abogados de su Departamento Judicial, solicitando que se difunda entre los matriculados la importancia de verificar cuidadosamente las citas (de normas, fallos y doctrina) en caso de utilizar herramientas de inteligencia artificial generativa para preparar sus presentaciones.
4) Temática Novedosa en Relación a la Tecnología
Lo verdaderamente novedoso de este fallo radica en su explícita alusión al fenómeno de las "alucinaciones" en la inteligencia artificial generativa. El tribunal advierte que, si bien no puede afirmar con certeza que las citas erróneas provengan del uso inadecuado de IA, la reiteración de estas situaciones en otras jurisdicciones (como el conocido caso estadounidense "Mata v. Avianca") sugiere una fuerte probabilidad de que este sea el origen.
El concepto de "alucinación" se refiere a la situación en la que los sistemas de IA generativa brindan información que no se corresponde con la realidad, lo cual se vuelve problemático cuando se utiliza en el ejercicio profesional.
Frente a esta problemática, el tribunal adopta un enfoque "empático y colaborativo" en lugar de sancionatorio. Argumenta que estas conductas no encuadran en las figuras de temeridad o malicia del CPCC, que la sanción debe ser restrictiva, y que se trata de errores en el uso de tecnologías disruptivas. En lugar de penalizar, se busca fomentar un uso ético y responsable de la tecnología, equilibrando el aprovechamiento de la IA con la necesidad de revisar, chequear y corroborar que toda la información provenga de fuentes existentes y verificables. Este enfoque es crucial para potenciar el trabajo legal sin comprometer la integridad y veracidad de las presentaciones judiciales.
5) Tres Preguntas a Modo de Reflexión
Este fallo nos invita a una profunda reflexión sobre el futuro de la práctica legal y la interacción con la inteligencia artificial:
1. Verificación Constante: Dada la capacidad de las IA generativas para producir "alucinaciones", ¿qué protocolos y metodologías deberían implementar los estudios jurídicos y los profesionales del derecho para garantizar la rigurosa verificación de todas las fuentes y citas generadas por estas herramientas antes de su presentación en sede judicial?
2. Responsabilidad y Formación: Si bien el tribunal optó por una postura colaborativa, ¿cuál es la responsabilidad de los Colegios de Abogados y de las instituciones educativas en la creación de programas de capacitación y guías éticas que preparen a los abogados para un uso competente y responsable de la IA en la praxis legal?
3. Transparencia en el Proceso: En un contexto donde el uso de la IA es cada vez más frecuente, ¿deberían los abogados estar obligados a declarar en sus escritos judiciales si han utilizado herramientas de inteligencia artificial para su elaboración, y cómo impactaría una mayor transparencia en la confianza y la credibilidad del sistema judicial?
Acceder al fallo en Diariojudicial aquí
Nota: Contenido generado utilizando NotebookLM



Comentarios