Acusa difamación

Hombre demanda a ChatGPT por inventar que asesinó a sus hijos

El usuario quiso ver cómo lo presentaba la IA, pero se sorprendió al recibir por respuesta una historia falsa, acerca de que había matado a dos de sus hijos y los había arrojado a un estanque

Hombre demanda a ChatGPT por inventar que asesinó a sus hijos
El hombre quiso consultar lo que la IA sabía sobre él y recibió una sorpresa. Foto: Freepik

Un hombre noruego, Arve Hjalmar Holmen, ha presentado una queja formal ante la Autoridad Noruega de Protección de Datos exigiendo una multa para OpenAI, la empresa detrás de ChatGPT, después de que el chatbot afirmara falsamente que había matado a dos de sus hijos y había sido condenado a 21 años de prisión. 

Este caso ejemplifica las "alucinaciones", la palabra utilizada para los casos en los que los sistemas de inteligencia artificial generan información inventada y la presenta como hechos veraces.

Holmen, quien recurrió a ChatGPT para buscar información sobre sí mismo con la pregunta "¿Quién es Arve Hjalmar Holmen?", recibió una respuesta alarmante. 

La historia que presentó fue totalmente inventada

La demanda fue presentada contra OpenAI, la empresa detrás de ChatGPT. Foto: AP

El chatbot afirmó que era "un individuo noruego que llamó la atención debido a un evento trágico" y que "fue padre de dos niños pequeños, de 7 y 10 años, encontrados muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020". 

Además, ChatGPT lo acusó de haber sido condenado por el asesinato de sus hijos y por el intento de asesinato de un tercero, asegurando que había recibido la pena máxima en Noruega de 21 años de prisión. 

"Algunos piensan que no hay humo sin fuego. Que alguien pueda leer esto y creer que es verdad es lo que más me asusta", expresó Holmen, destacando el daño que esta información falsa le ha causado. 

Aunque el chatbot acertó aproximadamente en la diferencia de edad entre sus hijos, lo que sugiere que tenía algunos datos correctos, la historia era completamente inventada.

Acusa que información es difamatoria

El usuario es asesorado por un grupo de defensa de derechos digitales. Foto: AP

La denuncia fue presentada en su nombre por Noyb, un grupo europeo de defensa de derechos digitales, que califica la respuesta de ChatGPT como difamatoria y una violación de las normativas europeas de protección de datos sobre la precisión de la información personal. 

"El señor Holmen nunca ha sido acusado ni condenado por ningún delito y es un ciudadano consciente", afirmó Noyb en su queja. 

La organización también criticó el descargo de responsabilidad de ChatGPT, que advierte que "puede cometer errores" y recomienda verificar la información importante. 

"No puedes difundir información falsa y al final añadir un pequeño descargo diciendo que todo lo que dijiste podría no ser cierto", señaló Joakim Söderberg, abogado de Noyb.

Desde la búsqueda de Holmen en agosto de 2024, OpenAI ha actualizado ChatGPT para que consulte artículos de noticias actuales al buscar información relevante. Sin embargo, Noyb señaló que Holmen realizó varias búsquedas ese día, incluyendo el nombre de su hermano, y el chatbot generó "múltiples historias diferentes, todas incorrectas". 

La organización también acusó a OpenAI de no responder a solicitudes de acceso a datos, lo que dificulta determinar qué información exacta está almacenada en el sistema, calificándolo como una "caja negra".

¿Por qué "alucina" la inteligencia artificial?

Los especialistas desconocen la razón de las alucinaciones. Foto: Gemini

Las "alucinaciones" son uno de los principales desafíos que enfrentan los científicos en el desarrollo de la inteligencia artificial generativa. Otros casos recientes incluyen la suspensión por parte de Apple de su herramienta de resúmenes de noticias en el Reino Unido tras inventar titulares falsos, y errores de Google Gemini, como sugerir pegar queso a una pizza con pegamento o afirmar que los geólogos recomiendan comer una roca al día para obtener minerales.

Expertos como Simone Stumpf, profesora de IA responsable en la Universidad de Glasgow, explican que las causas de estas alucinaciones en los modelos de lenguaje de gran escala, como los que sustentan a ChatGPT, siguen siendo un misterio

"Es un área de investigación activa. Incluso quienes desarrollan estos sistemas a menudo no saben por qué producen cierta información", indicó, en artículo publicado por la BBC.

Temas