
Este hecho fue mantenido en secreto hasta ahora. El periódico The New York Times lo reveló con ayuda de fuentes anónimas.
El hacker obtuvo detalles de conversaciones entre empleados e investigadores. Sin embargo, no consiguió información sensible sobre el código de ChatGPT ni datos personales de clientes. A pesar de esto, la empresa no informó a sus usuarios ni a las autoridades. Dijeron que no habÃa datos personales comprometidos.
En abril de 2023, los directivos de OpenAI hablaron del incidente en una reunión en San Francisco. Decidieron no hacer pública la información. Dijeron que no habÃa riesgo de amenaza a la seguridad nacional. Esta decisión no le gustó a algunos empleados. Leopold Aschenbrenner, ex director técnico, criticó la falta de seguridad antes de ser despedido.
Liz Bourgeois, portavoz de OpenAI, defendió la respuesta de la empresa. Dijo que abordaron el incidente y lo compartieron con la junta directiva. Sin embargo, el suceso ha generado dudas sobre la seguridad de la empresa contra ciberataques, especialmente de paÃses como China.
Este caso muestra la importancia de la seguridad en la inteligencia artificial. Estas tecnologÃas pueden generar desinformación en internet. Daniela Amodei, cofundadora de Anthropic, comentó que su tecnologÃa no serÃa peligrosa si fuera robada. El código abierto ayuda a identificar y solucionar problemas.
Este incidente resalta la necesidad de más transparencia y seguridad en el desarrollo de tecnologÃas avanzadas. La administración Biden planea nuevas medidas para proteger la tecnologÃa de inteligencia artificial de Estados Unidos. Las empresas deben ser más proactivas en prevenir ciberataques y divulgar incidentes de seguridad.
