viernes, marzo 21

ChatGPT recibe denuncia de un noruego… por llamarlo «asesino de niños»

0
51

Desde ese incidente, OpenAI, creador del chatbot, ha actualizado su modelo y ya no presenta a Arve Hjalmar Holmen como un asesino.

El grupo de privacidad austríaco Noyb presentó este jueves una queja formal contra ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, por crear información falsa y potencialmente dañina sobre personas reales. La denuncia, que fue entregada ante la autoridad de protección de datos de Noruega (Datatilsynet), señala específicamente un caso en el que el chatbot generó una historia falsa donde se acusaba a un usuario de asesinar a sus hijos.

El incidente ocurrió cuando Arve Hjalmar Holmen, residente en Noruega, consultó a ChatGPT en agosto de 2024 para conocer qué información disponía sobre él. Sorprendentemente, la inteligencia artificial no solo proporcionó datos personales reales como la cantidad y género de sus hijos o su ciudad natal, sino que además añadió una narrativa inventada y alarmante, afirmando falsamente que Holmen había matado a dos de sus hijos y había intentado asesinar a un tercero.

“El hecho de que alguien pueda leer este artículo y creer que es cierto es lo que más me asusta”, declaró Hjalmar Holmen en un comunicado difundido por Noyb. La organización denuncia que este tipo de situaciones no es aislado y resalta que ChatGPT tiene tendencia a “alucinar”, término que la industria tecnológica utiliza para describir cuando las inteligencias artificiales generan información incorrecta debido a datos inexactos o suposiciones erróneas.

OpenAI ha afirmado recientemente que actualizó ChatGPT para que obtenga información directamente desde internet cuando se trate de preguntas específicas sobre individuos y ya no presenta a Arve Hjalmar Holmen como un asesino. No obstante, Noyb sostiene que la información falsa aún podría estar presente en los conjuntos de datos utilizados por la inteligencia artificial, lo que no soluciona completamente el problema.

En su queja formal, Noyb exige a la autoridad noruega que imponga una multa significativa a OpenAI y obligue a la compañía estadunidense a eliminar inmediatamente los resultados difamatorios de sus sistemas. Además, piden que se realicen ajustes urgentes al modelo de inteligencia artificial para evitar nuevas inexactitudes que puedan afectar negativamente la reputación de las personas.

Joakim Söderberg, abogado especializado en protección de datos de Noyb, criticó la postura de OpenAI de incluir únicamente una advertencia general sobre la posibilidad de generar información incorrecta.

“No se puede simplemente difundir información falsa y al final añadir una pequeña advertencia que diga que todo lo que se ha dicho puede ser falso”, explicó Söderberg, quien subrayó la obligación legal del Reglamento General de Protección de Datos (GDPR) europeo, que exige precisión en los datos personales.

La preocupación sobre las «alucinaciones» de ChatGPT ha sido destacada en múltiples ocasiones. Un artículo del New York Times reportó previamente que este tipo de errores ocurre entre el 3% y hasta el 27% de las respuestas generadas por los chatbots. En otras situaciones similares, ChatGPT ha generado acusaciones falsas de agresiones sexuales y sobornos contra personas inocentes.

El año anterior, Noyb también presentó una denuncia separada ante la autoridad de protección de datos de Austria, cuando ChatGPT inventó la fecha de nacimiento incorrecta del fundador de la organización, Max Schrems.

En respuesta al creciente número de incidentes similares, las autoridades europeas de protección de datos establecieron en 2023 un grupo de trabajo específico para analizar y coordinar acciones regulatorias sobre ChatGPT, que recientemente se amplió para abordar otros asuntos relacionados con el uso generalizado de inteligencia artificial. Hasta el momento, OpenAI no ha emitido declaraciones oficiales sobre esta última denuncia presentada por Noyb.

Nota original aquí

Fuente: Excelsior

Leave a reply