El New York Times informó que a principios de 2023, un pirata informático obtuvo acceso a los sistemas de mensajería internos de OpenAI y robó información sobre la tecnología de inteligencia artificial de la empresa. La empresa reveló el incidente a los empleados, pero no al público ni a las autoridades.
¡Hacker robó tecnología de OpenAI pero nadie dijo nada!
El hacker logró robar información de las discusiones en un foro en línea para empleados de OpenAI, donde hablaban sobre las últimas tecnologías. Afortunadamente para la empresa, el pirata informático no pudo penetrar los sistemas donde se alojan y entrenan los modelos GPT.
Dos fuentes que revelaron esta información a The New York Times afirmaron que algunos empleados de OpenAI expresaron su preocupación de que países como China pudieran utilizar tales ataques para robar tecnología de IA. Con el tiempo, esto podría poner en riesgo la seguridad nacional de Estados Unidos.
Cuando se les informó sobre el incidente, algunos empleados también plantearon preguntas sobre la seriedad con la que la empresa se estaba tomando la seguridad. También se dice que han surgido divisiones entre los empleados sobre los riesgos de la inteligencia artificial.
En relación con el incidente, un exdirector del programa técnico de OpenAI escribió un memorando a la junta directiva de la empresa diciendo que la empresa no estaba haciendo lo suficiente para evitar el robo de secretos por parte de adversarios extranjeros. El director era Leopold Aschenbrenner, quien aludió a la brecha de seguridad en un podcast. OpenAI lo despidió por filtrar información fuera de la empresa. Por ello, sostiene que este despido tuvo motivaciones políticas.
División entre empleados
La revelación del ataque a OpenAI y que causó división entre los empleados solo se suma a la creciente lista de problemas en la empresa. Ya hemos visto al CEO Sam Altman luchar contra una junta anterior y salir victorioso. Más recientemente, varios investigadores de seguridad de la IA abandonaron la empresa. Todo debido a desacuerdos sobre la superalineación, en la que se encuentran métodos para que los humanos controlen la IA superinteligente.
Según figuras destacadas del campo de la IA, como Daniela Amodei, cofundadora de Anthropic, si robaran los últimos proyectos de IA generativa, no sería una gran amenaza para la seguridad nacional. Sin embargo, a medida que esta tecnología se vuelva más capaz, esta situación puede cambiar.