domingo, noviembre 10

Dos abogados fueron multados tras presentar un escrito judicial con información falsa realizado por ChatGPT

0
326

Los letrados “obviaron conscientemente” las señales que sugerían que los datos eran irreales y los defendieron, a pesar de las dudas sembradas por las órdenes judiciales

El repentino auge de ChatGPT ha dejado en claro que, a pesar de tratarse de una herramienta muy útil, aún se encuentra en vías de desarrollo y, por tanto, su contenido y respuestas deben ser tomadas bajo esta consideración.

No fue éste el caso de los abogados Steven Schwartz y su compañero Peter LoDuca, quienes se valieron de este chatbot para realizar un escrito judicial pero no se percataron de que el texto contenía datos falsos.

Los letrados pidieron a la aplicación de OpenAI que elabore un documento de diez páginas para presentar en defensa de su cliente, quien demanda a la aerolínea Avianca tras haber sufrido una lesión por un golpe con un carrito de servicio durante un vuelo en 2019.

Sin embargo, fue cuestión de tiempo hasta que se descubriera que el chatbot había estado detrás de ese texto y que los seis precedentes legales que allí se mencionaron en respaldo de sus argumentos eran inexistentes.

El juez Kevin Castel multó a los abogados por USD 5.000 dado que “obviaron conscientemente” las señales que advertían que se trataba de casos falsos y hasta emitieron declaraciones “engañosas” al Tribunal, por lo que consideró que obraron de mala fe.

“La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes”, dijo.

Asimismo, la sentencia conocida este viernes señala que ambos profesionales “hicieron dejación de responsabilidades cuando presentaron las opiniones judiciales no existentes acompañadas de citas falsas creadas por la herramienta artificial de ChatGPT y continuaron manteniendo esas opiniones falsas después de que las órdenes judiciales pusieran en duda su existencia”.

El magistrado señaló, de todas formas, que:

“los avances tecnológicos son comunes y no hay nada inherentemente inadecuado con respecto a utilizar una herramienta de inteligencia artificial fiable para que proporcione apoyo” pero, aún así, es responsabilidad de los abogados ejercer “la función de control para garantizar la exactitud de sus declaraciones”.

Tras conocerse la resolución del Tribunal, Schwartz presentó una declaración jurada en la que admitió haber usado el chatbot para la elaboración del escrito y reconoció, a su vez, que la única verificación que realizó consistió en preguntarle, al finalizar su respuesta, si todos los casos que había citado eran reales.

A continuación, intentó justificar su error al explicar que se trató de la primera vez que usaba una herramienta de inteligencia artificial de este tipo y por ello “no era consciente de la posibilidad de que su contenido pudiese ser falso”.

Es por ello que, si bien desde la firma aseguraron que acatarán el fallo, mencionaron que

“respetuosamente, estamos en desacuerdo con el hallazgo de que alguien en nuestra firma actuó de mala fe. Ya hemos ofrecido disculpas a la Corte y a nuestro cliente”.

“Seguimos creyendo que, ante lo que incluso la Corte reconoció que era una situación sin precedentes, cometimos un error de buena fe al no creer que una unidad de tecnología pudiese estar inventando casos sin basarse en hechos ni la realidad”, continuó su descargo.

Por último, Schwartz exculpó a su colega LoDuca de estos actos pero el juez Castel no descartó su culpabilidad del caso, por lo que también podría afrontar sanciones.

Nota original aquí

Fuente: Infobae/EFE

 

Leave a reply