De acuerdo con el medio New York Times, el letrado utilizó esta herramienta como fuente en contra de la aerolínea colombiana Avianca y citó seis casos que no existen.
En un caso reciente, un abogado decidió utilizar una la herramienta ChatGPT para mejorar su estrategia de defensa en un juicio; sin embargo, se descubrió que estas citas generadas por inteligencia artificial son completamente falsas.
De acuerdo con el medio New York Times, el abogado estadounidense, Steven A. Schwartz -que representa a un pasajero que asegura que sufrió una lesión al ser golpeado con un carrito de servicio durante un vuelo- utilizó la herramienta de IA, ChatGPT, como fuente en contra de la aerolínea colombiana Avianca y citó seis casos que no existen.
Fue el mismo Steven A. Schwartz quien admitió haber utilizado esta tecnología para poder elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese archivado.
«La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes», señaló el juez Kevin Castel.
Tras conocerse de esta mala práctica del abogado, el juez decidió emitir una orden para convocar a una audiencia el próximo 8 de junio, en la que Steven deberá explicar por qué no debería ser sancionado luego de haber presentado datos falsos.
Por otro lado, el abogado estadounidense justificó su accionar asegurando que «nunca antes había usado una herramienta de este tipo y que, por tanto, no era consciente de la posibilidad de que su contenido pudiese ser falso».
Asimismo, Schwartz agregó que «no tenía ninguna intención de engañar al tribunal» y exculpó a otro abogado del bufete que se expone también a posibles sanciones.
Cabe resalta que, a medida que la inteligencia artificial continúa desempeñando un papel cada vez más relevante en el campo legal, es necesario establecer pautas claras y protocolos de verificación para garantizar su uso ético y responsable.
La combinación adecuada de la inteligencia artificial y el juicio humano puede llevar a resultados más justos y precisos en el sistema judicial, siempre y cuando se mantenga una supervisión constante y se asuma la responsabilidad de validar la información generada por la IA.