Un caso reciente revela las consecuencias de confiar en herramientas de inteligencia artificial, dos abogados enfrentan multas por utilizar ChatGPT para crear precedentes legales falsos en un caso contra Avianca. Este escándalo plantea dudas sobre el papel de la IA en el ámbito jurídico y destaca la importancia de la experiencia y supervisión de los profesionales del derecho.
Dos abogados fueron condenados por un juez estadounidense después de admitir haber utilizado ChatGPT, una popular herramienta de inteligencia artificial, para presentar un escrito judicial plagado de precedentes legales falsos.
Los letrados, identificados como Steven Schwartz y Peter LoDuca, enfrentarán ahora una multa de 5,000 dólares por actuar de mala fe y ofrecer declaraciones "engañosas" al tribunal.
El juez Kevin Castel manifestó su descontento con los abogados, afirmando que "obviaron conscientemente" las señales que indicaban la falsedad de los casos citados por ChatGPT, si bien reconoció que el uso de IA como asistente no es intrínsecamente incorrecto, el togado destacó que los abogados tienen la responsabilidad de garantizar la exactitud de sus declaraciones.
En la sentencia también se subraya que ambos “hicieron dejación de responsabilidades cuando presentaron las opiniones judiciales no existentes acompañadas de citas falsas creadas por la herramienta artificial de ChatGPT y continuaron manteniendo esas opiniones falsas después de que las órdenes judiciales pusieran en duda su existencia”.
El caso se originó en una demanda contra la aerolínea Avianca presentada por un pasajero que alega haber sufrido una lesión debido a un incidente con un carrito de servicio durante un vuelo. Steven Schwartz y Peter LoDuca, quienes representaban al demandante, utilizaron ChatGPT para elaborar un escrito en oposición a la solicitud de desestimación presentada por la defensa.
El problema surgió cuando se descubrió que las decisiones judiciales citadas en el documento de Schwartz eran inexistentes y habían sido generadas por la inteligencia artificial.
En el documento de diez páginas el abogado citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.
El juez Castel expresó su sorpresa ante la situación sin precedentes y señaló que el abogado había presentado un escrito lleno de citas falsas. Schwartz admitió en una declaración jurada haber utilizado ChatGPT para preparar el documento y confesó que solo había verificado la autenticidad de los casos preguntándole a la aplicación.
Alegó no haber tenido conocimiento de la posibilidad de que el contenido fuera falso, argumentando su falta de experiencia previa con herramientas de inteligencia artificial.
“La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes”, escribió el juez Castel.
Este escándalo ha dejado al mundo legal perplejo y ha puesto en entredicho el uso de IA en el ámbito jurídico, así mismo, ha demostrado que la inteligencia artificial no reemplaza a los profesionales del derecho, es decir, puede ayudar a agilizar los trámites, pero son ellos quienes deben revisar y corregir los documentos legales que generan los chatbots.
Mientras tanto, otro abogado del bufete involucrado también podría enfrentar sanciones por su implicación en el caso. El futuro de la inteligencia artificial en el sistema judicial se encuentra ahora bajo una intensa lupa.
(EFE)
Comments