top of page

¿Alucinaciones humanas o algorítmicas? El deber de supervisión en la era de la IA

La integridad de los escritos judiciales es la piedra angular del sistema legal. Un reciente fallo en el estado de Nueva Jersey ha puesto de manifiesto que, independientemente de si un abogado utiliza inteligencia artificial o personal humano, la responsabilidad final por la veracidad de las citas jurisprudenciales es indelegable. Este caso nos invita a reflexionar sobre la competencia tecnológica como un nuevo estándar ético.


1) Breve Resumen del Caso

En el marco de una demanda por despido injustificado (Yazmin Gutierrez v. Lorenzo Food Group, Inc.), la defensa detectó que el escrito de oposición presentado por el abogado de la actora, el Sr. Geoffrey Mott, contenía numerosas citas y extractos de fallos que no podían ser verificados. Inicialmente, el tribunal sospechó que se trataba de "alucinaciones" producidas por Inteligencia Artificial Generativa (GAI), ya que se presentaban citas reales pero atribuidas a casos totalmente erróneos o que habían dejado de ser derecho vigente hace décadas.

Tras una investigación de meses y una audiencia de testimonios cruzados, se descubrió que no fue una máquina, sino una asistente legal (paralegal) quien, en un intento por hacer que los argumentos "encajaran" en la jurisdicción del Tercer Circuito, decidió manualmente atribuir citas de otros circuitos a casos locales. El abogado titular firmó y presentó el escrito sin realizar un control de citas (cite checking) ni verificar la vigencia de la ley (Shepardizing).


2) Juzgado o Tribunal Interviniente

La resolución fue dictada por la Corte de Distrito de los Estados Unidos para el Distrito de Nueva Jersey (United States District Court, District of New Jersey), bajo la firma de la jueza Evelyn Padin.


3) Decisión Tomada

El tribunal resolvió:

  • Imponer sanciones monetarias al abogado Geoffrey Mott, consistentes en el pago de los honorarios incurridos por la contraparte para investigar y responder al escrito defectuoso.

  • Rechazar la descalificación del abogado, respetando el derecho de la actora a elegir su defensa.

  • Ordenar capacitación obligatoria: El Sr. Mott debe completar dos cursos de educación legal continua (CLE), uno específicamente sobre ética profesional y otro sobre el uso de Inteligencia Artificial en el campo legal.

  • Se determinó que el letrado violó las Reglas de Conducta Profesional de Nueva Jersey (NJRPC) relativas a la Competencia (1.1) y las Responsabilidades de Supervisión (5.1 y 5.3).


4) Temática Novedosa en Relación a la Tecnología

Lo más disruptivo de este fallo es que, aunque se comprobó que no se utilizó IA para redactar el escrito, la jueza utilizó el caso como una "lección" sobre la competencia tecnológica. La jueza Padin argumentó que:

  • Responsabilidad Universal: No importa si el error es cometido por un humano o por un modelo de lenguaje de gran escala (LLM); la obligación del abogado de asegurar la precisión de sus argumentos es la misma bajo la Regla Federal de Procedimiento Civil 11(b).

  • Ignorancia no es defensa: El abogado alegó en repetidas ocasiones desconocer el funcionamiento de la IA. El tribunal dictaminó que, como profesional que gestiona una firma, el abogado tiene el deber ético de familiarizarse con estas tecnologías, ya que juegan un papel cada vez mayor en la práctica legal y en la conducta de su propio personal.

  • Supervisión en la "Caja Negra": El caso resalta el peligro de la delegación irreflexiva. La jueza consideró inaceptable que un abogado afirme haber revisado "exhaustivamente" un escrito sin haber detectado errores que incluso una búsqueda básica hubiera revelado.


5) Tres Preguntas a Modo de Reflexión

  1. ¿Debería el desconocimiento de la tecnología considerarse hoy en día una forma de negligencia profesional similar a la falta de conocimiento del derecho sustantivo?

  2. Si un humano puede cometer "alucinaciones" manuales tan graves como las de una IA, ¿estamos ante un problema de tecnología o de falta de rigor en la formación ética de los auxiliares de justicia?

  3. ¿Cómo deben los estudios jurídicos reconfigurar sus protocolos de supervisión para garantizar que la eficiencia de la automatización (o de asistentes bajo presión) no comprometa la integridad de la prueba digital?


Boletin fallo TDJ-Google



Acceder al fallo en Diariojudicial aquí


Nota: Contenido generado utilizando NotebookLM


Comentarios


bottom of page