Ciudadano noruego demanda a ChatGPT por acusarlo erróneamente de ser un asesino

La inteligencia artificial desarrollada por OpenAI acusó erróneamente a Arve Hjalmar Holmen de asesinar a dos de sus hijos e internar matar un tercero.

proceso.com.mx

CIUDAD DE MÉXICO (apro).- Un ciudadano noruego, Arve Hjalmar Holmen, presentó una demanda contra OpenAI, luego de que ChatGPT generó información falsa sobre él, acusándolo erróneamente de haber asesinado a dos de sus hijos e intentado matar a un tercero.

En agosto del año pasado, Arve Hjalmar Holmen consultó al chatbot desarrollado por OpenAI para obtener información sobre sí mismo. La inteligencia artificial le proporcionó datos verídicos, como la cantidad y el género de sus hijos; sin embargo, también generó una historia falsa en la que lo acusaba de haber asesinado a sus propios descendientes.

Por esta razón, el grupo de privacidad austríaco Noyb presentó una queja formal este jueves contra ChatGPT, acusándolo de generar información falsa y potencialmente perjudicial sobre personas reales. La denuncia fue remitida a la autoridad de protección de datos de Noruega (Datatilsynet).

Así, Noyb solicitó a la autoridad noruega que sancione a OpenAI con una multa considerable y ordene la eliminación inmediata de los resultados difamatorios generados por sus sistemas y exigió modificaciones urgentes en el modelo de inteligencia artificial para prevenir futuras imprecisiones que puedan perjudicar la reputación de las personas.

Por su parte, OpenAI señaló que recientemente actualizó a ChatGPT para que obtenga información directamente de internet cuando se le hagan preguntas específicas sobre personas, y ya no presenta a Arve Hjalmar Holmen como un asesino, sin embargo, Noyb continúa argumentando, que la información falsa, aún podría estar presente en los conjuntos de datos empleados por la inteligencia artificial.

Noyb señaló en el pasado que ChatGPT produjo información errónea en otros casos, imputando injustamente a individuos por corrupción, abuso infantil e incluso asesinato.

El grupo de privacidad ha manifestado que estos llamados “efectos alucinatorios” de la inteligencia artificial pueden causar un daño significativo a la reputación de las personas involucradas.

                                                         
Compartir