🦹‍♂️ OpenAI matuvo en secreto ataque cibernético: ¿Por qué no informó al público?

OpenAI ChatGPT
Imagen: The Verge

Un reciente informe ha revelado que OpenAI fue víctima de un ciberataque a principios del año pasado, información que no fue divulgada al público en su momento. De acuerdo con The New York Times, un hacker logró acceder a detalles confidenciales sobre las tecnologías de inteligencia artificial de OpenAI a través de un foro de discusión utilizado por los empleados para debatir sobre los últimos desarrollos de la empresa.

Aunque The New York Times no mencionó la fuente de la noticia, indicó que “dos personas familiarizadas con el incidente” confirmaron la veracidad del suceso. Según el informe, el cibercriminal solamente accedió al foro y no comprometió los sistemas centrales que sostienen los algoritmos y el marco de inteligencia artificial de OpenAI.

Se informó que OpenAI comunicó el ataque a sus empleados en una reunión general en abril de 2023 y también a su junta directiva. Sin embargo, los ejecutivos de OpenAI optaron por no hacer pública la información.

¿Por qué OpenAI decidió mantener el incidente en secreto?

Según The New York Times, OpenAI no reveló el hackeo al público porque no se comprometió información de los clientes. Además, la empresa decidió no informar del incidente al FBI ni a ninguna otra autoridad.

El periódico explica que los ejecutivos no consideraron el ataque una amenaza a la seguridad nacional ya que creían que el hacker era un individuo sin conexiones conocidas con gobiernos extranjeros.

Fuentes del New York Times señalan que algunos empleados de OpenAI temían que enemigos basados en China pudieran robar los secretos de inteligencia artificial de la empresa, lo cual podría representar un riesgo para la seguridad nacional de Estados Unidos.

Leopold Aschenbrenner, quien lideraba el equipo de superalineamiento de OpenAI (una unidad dedicada a asegurar que la IA no se salga de control) en ese momento, compartía estas preocupaciones sobre la seguridad laxa. Aschenbrenner fue despedido a principios de este año por compartir un documento interno con tres investigadores externos para obtener su opinión, lo cual considera fue un despido injusto ya que revisó el documento para asegurarse de que no contenía información confidencial.

The New York Times también menciona que estudios de Anthropic y OpenAI indican que la IA no es significativamente más peligrosa que motores de búsqueda como Google. Sin embargo, es crucial que las empresas de inteligencia artificial mantengan altos estándares de seguridad. Actualmente, los legisladores están impulsando regulaciones que impondrían severas multas a las empresas de IA cuyas tecnologías causen daños sociales.

Generado por IA

Autor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *