Hackearon a Open AI

Este hecho fue mantenido en secreto hasta ahora. El periódico The New York Times lo reveló con ayuda de fuentes anónimas.

El hacker obtuvo detalles de conversaciones entre empleados e investigadores. Sin embargo, no consiguió información sensible sobre el código de ChatGPT ni datos personales de clientes. A pesar de esto, la empresa no informó a sus usuarios ni a las autoridades. Dijeron que no había datos personales comprometidos.

En abril de 2023, los directivos de OpenAI hablaron del incidente en una reunión en San Francisco. Decidieron no hacer pública la información. Dijeron que no había riesgo de amenaza a la seguridad nacional. Esta decisión no le gustó a algunos empleados. Leopold Aschenbrenner, ex director técnico, criticó la falta de seguridad antes de ser despedido.

Liz Bourgeois, portavoz de OpenAI, defendió la respuesta de la empresa. Dijo que abordaron el incidente y lo compartieron con la junta directiva. Sin embargo, el suceso ha generado dudas sobre la seguridad de la empresa contra ciberataques, especialmente de países como China.

Este caso muestra la importancia de la seguridad en la inteligencia artificial. Estas tecnologías pueden generar desinformación en internet. Daniela Amodei, cofundadora de Anthropic, comentó que su tecnología no sería peligrosa si fuera robada. El código abierto ayuda a identificar y solucionar problemas.

Este incidente resalta la necesidad de más transparencia y seguridad en el desarrollo de tecnologías avanzadas. La administración Biden planea nuevas medidas para proteger la tecnología de inteligencia artificial de Estados Unidos. Las empresas deben ser más proactivas en prevenir ciberataques y divulgar incidentes de seguridad.

© 2020 - parentesis.com Todos los derechos reservados