martes, noviembre 12

Hackearon a OpenAI en 2023; robaron información confidencial

0
74

Los directivos de la empresa no informaron sobre este incidente a las autoridades de EU.

Un ciberdelincuente obtuvo acceso a los sistemas de mensajería interna de OpenAI el año pasado y robó detalles sobre el diseño de las tecnologías de inteligencia artificial de la compañía, informó The New York Times.

El pirata informático extrajo detalles de las discusiones en un foro en línea donde los empleados hablaron sobre las últimas tecnologías de OpenAI, según el informe, citando a dos personas familiarizadas con el incidente.

Se sostiene que el cibercriminal sólo violó el foro, no los sistemas centrales que impulsan los algoritmos y el marco de trabajo de inteligencia artificial de OpenAI.

Según se informa, OpenAI reveló el ataque a los empleados durante una reunión general en abril de 2023. También informó a la junta directiva. Sin embargo, los ejecutivos de OpenAI decidieron no compartir la noticia públicamente.

Según el diario estadunidense, OpenAI no reveló el hackeo al público porque no se robó información sobre los clientes. La empresa tampoco compartió la violación con el FBI ni con ninguna otra entidad encargada del cumplimiento de la ley.

Los ejecutivos no consideraron el incidente una amenaza a la seguridad nacional porque creían que el hacker era un individuo privado sin vínculos conocidos con un gobierno extranjero”, afirmó el periódico.

Fuentes de The New York Times dicen que algunos empleados de OpenAI expresaron temor de que adversarios con base en China pudieran haber robado parte de los secretos de inteligencia artificial de la empresa, lo que representaría una amenaza a la seguridad nacional de EU.

Leopold Aschenbrenner, líder del equipo de superalineamiento de OpenAI (una unidad enfocada en garantizar que la IA no se salga de control) en ese momento, supuestamente compartía los mismos sentimientos sobre la seguridad laxa y el hecho de ser un blanco fácil para los enemigos extranjeros.

Aschenbrenner dijo que lo despidieron a principios de este año por compartir un documento interno con tres investigadores externos para que le dieran su opinión. Insinúa que su despido fue injusto. Escaneó el documento en busca de información confidencial y agregó que es normal que los empleados de OpenAI recurran a otros expertos para obtener una segunda opinión.

GARANTÍAS

Sin embargo, el diario señala que estudios realizados por Anthropic y OpenAI revelan que la IA actual “no es más peligrosa” que los motores de búsqueda como Google.

Aun así, dijo, las empresas de IA deben garantizar una seguridad estricta. Los legisladores están presionando para que se aprueben regulaciones que impongan fuertes multas a las empresas de IA que causen daños sociales.

OpenAI dijo en mayo que había desmantelado cinco operaciones de influencia encubiertas que buscaban usar sus modelos de IA para “actividades engañosas” en la red, la última en despertar preocupaciones de seguridad sobre el posible mal uso de la IA.

La administración Biden estaba lista para abrir un nuevo frente en su esfuerzo por salvaguardar la tecnología de IA de EU de China y Rusia con planes preliminares para colocar barandillas alrededor de los modelos de inteligencia artificial más avanzados, incluido ChatGPT.

Nota original aquí

Fuente: Excelsior

Leave a reply