Publicidad

Noticias

Usar ChatGPT en un juicio puede acabar muy mal: historia real de un abogado

Las IA son buenas, sí, pero son aún mejores mintiendo.

Usar ChatGPT en un juicio puede acabar muy mal: historia real de un abogado
Pedro Domínguez

Pedro Domínguez

  • Actualizado:

Sí, ChatGPT es una inteligencia artificial que nos permite hacer prácticamente de todo: trabajos de clase, guiones de películas, discursos políticos, poemas… Peeeero, aun con todo lo versátil que es el modelo de lenguaje creado por OpenAI, no es la primera vez que os contamos que a la IA le encanta mentir.

ChatGPT ACCEDER

Porque, sí, cuando ChatGPT no tiene los recursos suficientes para resolver una duda, la IA tiende a mezclar datos y a inventarse lo que dice con tal de salir del paso. Una “manía” que, combinada con una mala profesionalidad, puede dar lugar a ejemplos como el de un reciente juicio en Estados Unidos, en el que ChatGPT se llegó a inventar varios casos judiciales.

Según recoge The New York Times, los abogados defensores de la aerolínea colombiana Avianca señalaron en el juicio, realizado en Nueva York, que los abogados de la acusación habían presentado casos judiciales inexistentes, incluyendo citas falsas. Esta declaración fue confirmada por el propio juez del caso, Kevin Castel, que declaró que al menos 6 de los casos judiciales presentados eran inventados.

Steven A. Schwartz, abogado de la acusación, admitió en una declaración jurada que utilizó ChatGPT en su investigación, y que corroboró los datos únicamente preguntando al chatbot cuáles eran sus fuentes y si estaba mintiendo. La IA emprendió una huida hacia adelante en la que afirmó con total rotundidad que los casos que detallaba eran reales, e incluso que podían encontrarse en servicios web de investigación judicial como LexisNexis o Westlaw.

La propia OpenAI avisa de que ChatGPT puede generar “información incorrecta”

En uno de los casos inventados, ChatGPT tomó los datos de un caso real, pero cambiando por completo el nombre de los implicados, los detalles y la propia fecha del caso. Schwartz, que “desconocía la posibilidad de que su contenido pudiera ser falso”, ahora “lamenta enormemente haber utilizado inteligencia artificial generativa para complementar la investigación jurídica aquí realizada y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”.

Actualmente se están estudiando las sanciones que el juez Castel impondrá a los abogados de la acusación. Otro abogado del caso, Peter LoDuca, también deberá comparecer ante el juez para dar explicaciones.

ChatGPT ACCEDER

Si una cosa nos ha enseñado la saga Terminator es que nunca hay que fiarse de una inteligencia artificial. Así que, si utilizáis ChatGPT para que os ayude con algún trabajo, corroborad siempre la veracidad de la información o puede que tengáis problemas en un futuro. Avisados quedáis.

Algunos de los enlaces añadidos en el artículo forman parte de campañas de afiliación y pueden representar beneficios para Softonic.

Pedro Domínguez

Pedro Domínguez

Publicista y productor audiovisual enamorado de las redes sociales. Invierto más tiempo pensando en qué videojuegos jugaré que jugando.

Lo último de Pedro Domínguez

Directrices editoriales