top of page

Derecho y Tecnología: Cuando la Inteligencia Artificial "Alucina" en el Tribunal

El avance de la tecnología en la práctica legal plantea desafíos sin precedentes. Un reciente fallo de la justicia cordobesa no solo aborda cuestiones clásicas de derecho real, sino que también sienta un precedente crucial sobre el uso ético y responsable de las herramientas de Inteligencia Artificial (IA) por parte de los profesionales del derecho. Analicemos este caso que pone en el foco la responsabilidad del abogado frente a las nuevas tecnologías.

 

1) Breve Resumen del Caso

El expediente, caratulado “BARRERA, VICTORIA ELIDA C/ CUEVAS, BLANCA RITA YOHANA - ACCIONES POSESORIAS/REALES - REIVINDICACION”, llegó al tribunal de alzada con un recurso de casación interpuesto por la parte demandada. La demandada cuestionaba la Sentencia 104 del 26/6/2025, alegando una supuesta errónea aplicación de los artículos 1899, 1900 y 1901 del Código Civil y Comercial de la Nación (CCCN). Específicamente, argumentó que se le exigió un rigor probatorio excesivo y formalista para acreditar la prescripción adquisitiva y la accesión de posesiones, especialmente en el contexto de una operación verbal entre familiares. La defensa también denunció la violación de las reglas de la sana crítica, sosteniendo que el tribunal había valorado la prueba de manera fragmentada y sesgada, descartando indebidamente el testimonio de un familiar que relató haber adquirido verbalmente el inmueble y haber mutado su condición de mero tenedor a poseedor con ánimo de dueño.

 

No obstante, el recurso fue considerado manifiestamente inadmisible en su aspecto formal, ya que el impugnante pretendía, bajo la causal de errónea aplicación de la ley sustantiva, cuestionar la interpretación de la norma y realizar una nueva valoración de la prueba para arribar a una conclusión fáctica diferente, lo cual es ajeno al ámbito del recurso de casación por la causal invocada.

 

2) Juzgado o Tribunal Interviniente

El fallo (AUTO NÚMERO: 127) fue dictado por la CÁMARA DE APELACIONES EN LO CIVIL Y COMERCIAL 5ª de Córdoba, con fecha 05/09/2025.

 

3) Decisión Tomada

El tribunal resolvió No conceder el recurso de casación interpuesto por la demandada.

Sin embargo, uno de los puntos más relevantes del resolutorio no solo fue la desestimación del recurso, sino las consecuencias para el profesional de la demandada debido a la invocación de fuentes falsas.

 

El tribunal decidió:

  1. No conceder el recurso de casación.

  2. Efectuar una recomendación al Dr. (apoderado de la demandada), instándolo a corroborar las citas o reseñas de jurisprudencia y a adoptar un uso ético y responsable de las herramientas de IA, corroborando diligentemente toda fuente que invoque.

  3. Imponer las costas del recurso a la parte demandada.

  4. Declarar inoficioso el trabajo profesional del abogado de la recurrente en este recurso y, en consecuencia, no regular honorarios al letrado por su trabajo en casación (art. 47 del Código Arancelario).


4) Temática Novedosa en Relación a la Tecnología

La temática más innovadora del fallo radica en la advertencia y sanción indirecta por el uso inapropiado de la Inteligencia Artificial (IA) para generar citas legales.

 

El Tribunal constató que, al fundar el recurso, la recurrente invocó precedentes jurisprudenciales específicos (incluyendo citas de la CSJN y del TSJ) cuya existencia no pudo ser verificada en los repertorios y motores de búsqueda disponibles en internet y en la Biblioteca del Poder Judicial.

 

Asumiendo que se trató de un error derivado del mal uso de la Inteligencia Artificial, el tribunal destacó que:

Responsabilidad Profesional: El mal uso de una herramienta tecnológica no atenúa ni exime de la responsabilidad profesional (deberes de diligencia, probidad y lealtad del art. 83 CPCC).

Las "Alucinaciones" de la IA: El tribunal advierte que estos sistemas son propensos a generar "alucinaciones", que es información que parece verosímil en su formato, pero que es fáctica o jurídicamente inexistente.

Reserva de Humanidad: Se establece que la labor del abogado no puede ser sustituida por un algoritmo. La IA debe ser un soporte, no un reemplazo del juicio profesional, exigiendo un control humano exhaustivo y una validación crítica de los resultados antes de su incorporación a una actuación profesional.

Consecuencias: Fundar una impugnación extraordinaria en citas falsas compromete la credibilidad de la defensa y puede acarrear responsabilidades legales (civiles y/o penales) y sanciones por falta disciplinaria.

 

5) Tres Preguntas a Modo de Reflexión

El caso “Barrera c/ Cuevas” nos obliga a repensar la función del abogado en la era digital y la integración de la IA en los procesos judiciales:

  1. Estándar de Diligencia: Dado que la invocación de precedentes falsos generados por IA fue un factor determinante para declarar el trabajo profesional como inoficioso y denegar la regulación de honorarios, ¿cuál es el estándar de diligencia y verificación que se espera de los letrados al utilizar herramientas de IA para investigar y fundamentar sus presentaciones judiciales?

  2. Reserva de Humanidad y Control: Si el principio de "reserva de humanidad" exige el control humano exhaustivo y la validación crítica, ¿qué tipo de protocolos de due diligence deben implementar los estudios jurídicos y los profesionales individuales para asegurar que la IA sea solo un soporte y no comprometa la probidad de la prueba citada?

  3. Regulación Ética: ¿Deberían los Colegios de Abogados o los Tribunales Superiores establecer guías éticas o requisitos de divulgación obligatoria cuando la IA es utilizada para asistir en la redacción o la búsqueda de jurisprudencia en escritos procesales?


Boletin Fallo Barrera Alucinaciones IA Abogados


Acceder al fallo en Diariojudicial aquí


Nota: Contenido generado utilizando NotebookLM

Comentarios


bottom of page