Un abogado confió en ChatGPT para preparar un juicio: ahora está en peligro de ser sancionado por los errores de la IA

Ni ChatGPT , ni ningún sistema similar basado en inteligencia artificial, es infalible. Pero vamos, ni de lejos. Científicos e investigadores llevan años alertando sobre las deficiencias de esta tecnología. OpenAI , desarrolladora de la máquina parlante, también avisa al usuario de que esta puede cometer errores. Por eso hay que tener cuidado, y mucho, cuando se recurra a la herramienta para generar contenido. Especialmente si no es por simple divertimento y el trabajo del usuario depende de ello . Steven A. Schwartz, abogado con despacho en Nueva York, no reparó en este detalle cuando recurrió a la herramienta para buscar precedentes que apoyasen un caso en el que el letrado se enfrentaba a la aerolínea estadounidense Avianca. Noticias Relacionadas estandar No Los mayores expertos en inteligencia artificial alertan de que la IA pone en «riesgo de extinción» al ser humano R. Alonso estandar No Los padres de ChatGPT desvelan el momento en que esperan que la IA supere la inteligencia humana R. Alonso Como recoge ‘ The New York Times ‘, la demanda contra la empresa fue presentada en 2019 por el pasajero Roberto Mata, quien afirmaba que durante un vuelo a Nueva York había sufrido una lesión en una pierna debido al impacto de un carrito metálico. Avianca solicitó al juez encargado del caso la desestimación, ante lo que Schwartz, con tres décadas de experiencia en la profesión, contratacó con un escrito de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. ¿El problema? Ni el magistrado ni la defensa de la aerolínea fueron capaces de contrastar esta información. Y todo porque la máquina, y no es la primera vez que ocurre, se la había inventado . En una declaración jurada ante el tribunal de Manhattan el jueves de la semana pasada, el letrado se defendió ante el juez encargado del caso Mata contra Avianca, P. Kevin Castel, que no tenía intención de engañar al tribunal. El Schwartz afirmó que nunca había usado ChatGPT, «por lo tanto, no estaba al tanto de la posibilidad de que su contenido pudiera ser falso». Castel, por su parte, señaló que se encontraba ante una situación «sin precedentes», y remarcó que el informe presentado por el abogado estaba plagado de «decisiones judiciales falsas, con citas falsas y referencias falsas». Ahora Schwartz puede sufrir una sanción que será debatida en audiencia el próximo 8 de junio. No te fíes de nada No es la primera vez que la inteligencia artificial de OpenAI comete errores de bulto . Y es que, al final, estamos hablando de sistemas que son entrenados con cantidad ingentes de datos, entre los que también, evidentemente, se encuentra información que puede ser falsa e inexacta. Hace algo más de un mes, Brian Hood, alcalde de una pequeña localidad australiana, amenazó con demandar a OpenAI por resultados de ChatGPT en los que se afirmaba falsamente que fue condenado a 30 meses de prisión en 2011 por sobornar a funcionarios extranjeros. Mientras tanto, este mismo mes, como desveló ‘ The Washington Post ‘, un profesor de la Universidad de Texas amenazó a todos los estudiantes de su clase con cancelar sus diplomaturas simplemente porque la IA le había dicho que todos sus trabajos habían sido copiados. Todo, a pesar de la incapacidad del sistema para realizar una evaluación concluyente de este tipo. Y los casos de malos usos y de fallos de la herramienta siguen. En abril, el ‘Post’ compartió el caso de un profesor de derecho que se enteró a través de un compañero de que el chat inteligente de OpenAI había generado información falsa acusándolo de conducta sexual inapropiada.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP Radio
WP Radio
OFFLINE LIVE