Mon. Mar 25th, 2024

El juzgado de Thurgood Marshall en Manhattan, Nueva York, el 15 de octubre de 2021.

Brendan McDermid | Reuters

La demanda de Roberto Mata contra Avianca Airlines no fue tan diferente de muchas otras demandas por lesiones personales presentadas en la corte federal de Nueva York. Mata y su abogado, Peter LoDuca, alegaron que Avianca le causó lesiones personales a Mata cuando fue “golpeado por un carrito de servicio de metal” a bordo de un vuelo de 2019 con destino a Nueva York.

Avianca solicitó el sobreseimiento del caso. Como era de esperar, los abogados de Mata se opusieron a la moción y citaron una variedad de decisiones legales, como es típico en las disputas judiciales. Entonces todo se vino abajo.

Los abogados de Avianca le dijeron al tribunal que no pudo encontrar numerosos casos legales que LoDuca había citado en su respuesta. El juez federal P. Kevin Castel exigió a LoDuca copias de nueve decisiones judiciales que aparentemente fueron utilizadas.

En respuesta, LoDuca presentó el texto completo de ocho casos en un tribunal federal. Pero el problema solo se profundizó, dijo Castel en una presentación, porque los textos eran ficticios y citaban lo que parecían ser “decisiones judiciales falsas con citas falsas y citas internas falsas”.

El culpable, finalmente emergería, fue ChatGPT. El popular chatbot de OpenAI había “alucinado”, un término para cuando los sistemas de inteligencia artificial simplemente inventan información falsa, y escupió casos y argumentos que eran completamente ficticios. Parecía que LoDuca y otro abogado, Steven Schwartz, habían usado ChatGPT para generar las mociones y el texto legal subsiguiente.

Schwartz, un asociado del bufete de abogados de Levidow, Levidow & Oberman, le dijo al tribunal que él había sido el que estaba manipulando ChatGPT y que LoDuca “no tuvo ningún papel en la realización de la investigación en cuestión”, ni “ningún conocimiento de cómo dijo se realizó la investigación”.

El abogado contrario y el juez primero se dieron cuenta de que los casos no existían, lo que brindó a los abogados involucrados la oportunidad de admitir el error.

LoDuca y su firma, sin embargo, parecieron duplicar el uso de ChatGPT, usándolo no solo para la presentación inicialmente problemática, sino también para generar decisiones legales falsas cuando se les solicita que las proporcionen. Ahora, LoDuca y Schwartz pueden enfrentar una sanción judicial, una medida que podría incluso conducir a la inhabilitación.

La moción de la defensa estaba “repleta de citaciones de casos inexistentes”, según un expediente judicial.

“A la Corte se le presenta una circunstancia sin precedentes”, dijo Castel. Fijó una audiencia para el 8 de junio cuando tanto LoDuca como Schwartz serán llamados a explicarse. Ninguno de los abogados respondió a la solicitud de comentarios de CNBC.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *