top of page

EE.UU: El Juez Castiga el 'Copy-Paste' Algorítmico: Sanciones por Citar Jurisprudencia Ficticia Generada por ChatGPT

La Inteligencia Artificial (IA) generativa continúa redefiniendo las fronteras de la diligencia profesional en el ámbito legal. Un reciente pronunciamiento en el Distrito Este de Michigan impone sanciones severas a litigantes que, a pesar de advertencias previas, utilizaron un chatbot de IA para la redacción de sus escritos procesales, resultando en la citación de conclusiones jurídicas completamente falsas. El fallo no solo subraya la incompatibilidad de la IA no verificada con la Regla 11, sino que también ofrece una clara definición del porqué los Large Language Models (LLMs) fallan en el razonamiento legal.

 

1) Breve Resumen del Caso

El caso involucra a los demandantes Michael D. Jarrous y Linda Jarrous, quienes presentaron objeciones a una orden del Juez de Paz. El tribunal notó inmediatamente que su escrito parecía ser una simple "copia y pega" de una herramienta de IA generativa, incluyendo frases propias de un chatbot ("Here’s the revised Paragraph 2, . . ."). Previamente, el Juez de Paz había advertido a los demandantes sobre los peligros del uso de IA generativa.

 

Al revisar las objeciones, la corte identificó una serie de citaciones falsas: si bien los casos citados eran reales (como Krupski v. Costa Crociere, District of Columbia v. Heller, y Oppenheimer Fund, Inc. v. Sanders), las explicaciones y conclusiones atribuidas a ellos eran incorrectas o tergiversadas. Por ejemplo, se citó Krupski para argumentar que una enmienda de la demanda es "obligatoria," lo cual el caso no afirma.

 

2) Juzgado o Tribunal Interviniente

La orden fue emitida por la UNITED STATES DISTRICT COURT EASTERN DISTRICT OF MICHIGAN, SOUTHERN DIVISION.

La resolución es una Opinión y Orden sobre la Orden para Mostrar Causa e Imposición de Sanciones por Uso de ChatGPT. La Jueza de Distrito interviniente es F. Kay Behm.

 

3) Decisión Tomada

La corte resolvió imponer sanciones a los demandantes por la violación de la Regla 11 de Procedimiento Civil, que exige una "investigación razonable" de la ley existente.

Las decisiones principales fueron:

1. Anulación de las Objeciones: Las objeciones presentadas por los demandantes (ECF No. 170) fueron ANULADAS por violación de la Regla 11 y por incumplimiento de una orden previa.

2. Imposición de Multa: Se impuso una multa de $300 a cada demandante, totalizando $600, por las tres citaciones tergiversadas generadas por IA. El tribunal consideró que la multa era disuasoria y asequible, notando que uno de los demandantes pagaba una suscripción mensual de $20 a "ChatGPT Plus".

3. Advertencia a Firmantes: Se advirtió a la demandante Linda Jarrous, quien declaró que revisó el documento "solo a un nivel muy general" antes de firmarlo, que la Regla 11 impone obligaciones en cada signatario y que una segunda falta de verificación podría resultar en el despido de sus reclamos.

4. Advertencia Futura: Se advirtió firmemente que cualquier futura presentación con una sola cita tergiversada o ficticia causada por el uso de IA generativa podría resultar en la desestimación total del caso por incumplimiento de mala fe de las órdenes judiciales.

 

4) Temática Novedosa en Relación a la Tecnología

La temática central es el fracaso de la Inteligencia Artificial Generativa para el razonamiento legal y la reafirmación del estándar de diligencia profesional (Regla 11) frente a estas herramientas.

El tribunal clarifica la naturaleza de los LLMs: son "adivinadores de palabras" (word guesser) que intentan predecir la siguiente palabra de una oración plausible. El problema no es que el LLM fabrique un caso que no existe, sino que, al tergiversar la conclusión de un caso real, un abogado o litigante puede asumir erróneamente su precisión.

 

La corte enfatiza que los LLMs no realizan los procesos metacognitivos necesarios para cumplir con la Regla 11. Cuando un LLM exagera la conclusión de un caso, no lo hace porque haya realizado un trabajo lógico y haya cometido un error, sino simplemente porque está "uniendo una oración de apariencia plausible" cuyo contenido puede o no ser verdadero. Por lo tanto, el uso de herramientas de IA sin una verificación independiente de los hechos y las citas ("fact-checking and citation-checking") constituye una violación incuestionable de la Regla 11.

 

5) Tres Preguntas a Modo de Reflexión

1. La Carga de la Verificación: Si los LLMs "emulan la función comunicativa del lenguaje, no el proceso cognitivo de pensamiento y razonamiento", ¿cómo debe interpretarse el estándar de "investigación razonable" de la Regla 11 para los abogados que dependen de estas herramientas, y qué pasos mínimos deben documentarse para demostrar la verificación independiente?

2. Responsabilidad del Signatario: Dado que la corte advierte que revisar el documento "solo a un nivel muy general" es insuficiente para cumplir con las obligaciones de la Regla 11, ¿debería exigirse a los colegios de abogados el desarrollo de directrices específicas que delimiten la responsabilidad y la debida diligencia de cada firmante de un documento legal generado, o al menos asistido, por IA?

3. Disuasión Tecnológica: El tribunal sancionó con una multa equivalente a 30 meses de suscripción al servicio de IA que el demandante utilizaba. ¿Es esta fórmula de sanción, basada en el costo de la herramienta tecnológica utilizada para infringir la norma, una estrategia efectiva para disuadir la pereza algorítmica o deberían priorizarse otras sanciones como la revocación de privilegios procesales (como el estatus IFP)?


Boletin fallo Jarrous



Acceder al fallo completo en Diariojudicial aquí


Nota: Contenido generado utilizando NotebookLM


Comentarios


bottom of page