top of page

El Riesgo de la IA Generativa en el Ámbito Legal: Un Caso de "Alucinaciones" que sacude la profesión

La inteligencia artificial (IA) generativa está transformando rápidamente diversos sectores, y el derecho no es la excepción. Sin embargo, su implementación trae consigo desafíos éticos y profesionales significativos, tal como lo demuestra un reciente caso en Estados Unidos donde el uso irresponsable de herramientas de IA derivó en serias sanciones para varios abogados. Este fallo nos invita a reflexionar sobre la indispensable supervisión humana en la era digital.

 

1) Breve Resumen del Caso

El caso gira en torno a una acusación presentada por el demandante, Frankie Johnson, quien señaló que el demandado, Jefferson S. Dunn, a través de sus abogados, había fabricado citas de autoridades legales en dos mociones presentadas ante el tribunal.

 

Posteriormente, se confirmó que estas citas eran "alucinaciones" de una popular aplicación de inteligencia artificial generativa, ChatGPT. En total, se identificaron cinco citas problemáticas en dos mociones: una moción para solicitar autorización para deponer a una persona encarcelada y una moción para obligar al demandante a responder a interrogatorios y producir documentos. Los abogados involucrados admitieron que uno de ellos, Matt Reeves, utilizó ChatGPT para obtener citas sin verificar su exactitud, lo que resultó en la inclusión de citas falsas o inexistentes.

 

2) Juzgado o Tribunal Interviniente

El caso fue tramitado ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de Alabama, División Sur.

 

3) Decisión Tomada

El tribunal impuso sanciones significativas a los abogados Matthew B. Reeves, William J. Cranford y William R. Lunsford. La decisión incluye:

  • Una reprimenda pública por hacer declaraciones falsas al tribunal.

  • La orden de publicar este fallo para efectivizar la reprimenda y la dirección al Secretario del Tribunal para que lo envíe a publicación en el Federal Supplement.

  • La descalificación de los tres abogados para seguir participando en el caso.

  • La remisión del asunto al Colegio de Abogados de Alabama y otras autoridades de licencias aplicables para los procedimientos correspondientes.

 

El tribunal eximió de sanción a los abogados Daniel J. Chism y Lynette E. Potter, así como al bufete de abogados Butler Snow LLP, de los procedimientos disciplinarios. Se consideró que Butler Snow actuó razonablemente en sus esfuerzos para prevenir esta mala conducta y reforzó sus medidas de precaución y respuesta.

 

4) Temática Novedosa en Relación a la Tecnología

La temática novedosa y central de este fallo es el uso inadecuado de la inteligencia artificial generativa, específicamente ChatGPT, en la investigación legal y la redacción de documentos judiciales. El tribunal enfatizó que la fabricación de autoridades legales es una falta grave, y que las citas generadas por IA que resultan ser "alucinaciones" (es decir, completamente inventadas) plantean un peligro significativo para la administración justa de justicia y la integridad del sistema judicial.

 

A pesar de que los abogados aceptaron la responsabilidad, el tribunal destacó los múltiples daños causados:

  • Pérdida de tiempo y recursos para la parte contraria al exponer la falsedad.

  • Retraso en el caso principal.

  • Daño a la reputación de los jueces y tribunales, y cinismo hacia la profesión legal.

  • Disminución de la confianza pública en los procesos legales.


Un punto crucial es que el tribunal no pudo aplicar la Regla Federal de Procedimiento Civil 11, que generalmente sanciona declaraciones falsas, porque las mociones en cuestión eran de descubrimiento (relacionadas con las Reglas 30 y 37), las cuales están explícitamente excluidas de la Regla 11(d). Esta "anomalía no intencionada" dejó al tribunal con su autoridad inherente como única vía para imponer sanciones, ya que ni la Regla 11, ni la Regla de Conducta Profesional de Alabama 3.3 (que requiere "conocimiento" de la falsedad) ni la Regla Local 83.1(f) cubrían claramente esta conducta específica de falta de verificación de citas generadas por IA. La corte determinó que la conducta de los abogados, particularmente la de Reeves y Cranford, y el "desinterés" de Lunsford, era "equivalente a la mala fe" debido a la extrema imprudencia y el completo desprecio por el deber profesional de veracidad.

 

5) Tres Preguntas a Modo de Reflexión

1. ¿Cómo pueden los bufetes de abogados implementar políticas de uso de IA que fomenten la eficiencia sin comprometer la rigurosidad y la verificación indispensable de la investigación legal?

2. Dada la capacidad de "alucinación" de la IA generativa, ¿cuál es el estándar de "diligencia razonable" que se espera de un abogado al utilizar estas herramientas para evitar sanciones y mantener la integridad profesional?

3. Más allá de las sanciones punitivas, ¿qué medidas proactivas pueden tomar los sistemas judiciales y las instituciones educativas para capacitar a la próxima generación de abogados sobre el uso ético y responsable de la inteligencia artificial?


Boletin Legaltech fallo EE. UU: IA Abogados

Resumen en español


Acceso al fallo completo original en inglés


Nota: Contenido generado utilizando NotebookLM

Comentarios


bottom of page