🤖 Sam Altman lidera nuevo grupo de seguridad en OpenAI

Sam Altman OpenAI

OpenAI asegura que está entrenando el siguiente gran modelo de inteligencia artificial, según un comunicado de prensa de este martes, y anticipa que llevará a la startup un paso más cerca de los sistemas de IA que generalmente son más inteligentes que los humanos. La compañía también anunció un nuevo Comité de Seguridad y Protección para guiar las decisiones críticas de seguridad y protección, dirigido por el CEO Sam Altman y otros miembros de la junta directiva de esa empresa.

“Estamos orgullosos de construir y lanzar modelos que son líderes en la industria tanto en capacidades como en seguridad”, dijo OpenAI en un comunicado de prensa. “Damos la bienvenida a un debate sólido en este momento importante”.

El anuncio se produce después de un mes tumultuoso para OpenAI, donde se disolvió un grupo dirigido por Ilya Sutskever y Jan Leike que investigaba los riesgos existenciales de la IA para la humanidad.

Las ex miembros de la junta directiva de OpenAI, Helen Toner y Tasha McCauley, escribieron en The Economist el domingo que estos desarrollos y otros posteriores al regreso de Altman “son un mal augurio para el experimento de autogobierno de OpenAI”. Varios empleados preocupados por la seguridad también abandonaron la empresa en los últimos meses, muchos de los cuales pidieron una mayor atención a los peligros de los sistemas de IA.

Este nuevo grupo parece ser el intento de OpenAI de abordar esos temores, y la primera tarea será evaluar los procesos y salvaguardas de la empresa durante los próximos 90 días. Sin embargo, es poco probable que incluir a Altman en este grupo apacigüe a los críticos. Toner y McCauley aseguraron que los altos directivos les dijeron que Altman cultivó “una cultura tóxica de mentiras” en OpenAI.

La semana pasada, Scarlett Johansson puso en duda la confiabilidad de Altman mientras la compañía creaba una voz que sonaba como ella.

Altman, el presidente Bret Taylor y los miembros de la junta Adam D’Angelo y Nicole Seligman dirigirán el Comité de Seguridad y Protección. El nuevo científico jefe de la compañía, Jakub Pachocki, también formará parte del comité junto con los jefes de departamento Matt Knight, John Sculman, Lilian Weng y Aleksander Madry. El grupo también consultará con expertos externos y hará recomendaciones a la junta directiva de OpenAI sobre los procedimientos de seguridad.

Durante mayo, la compañía también lanzó GPT-4 Omni, que mostró una nueva frontera en la interacción humana con modelos de IA. Este modelo sorprendió a muchos en la comunidad de IA con sus interacciones multimodales en tiempo real, y parece que OpenAI ya está avanzando con el entrenamiento del siguiente.

La startup de Altman se enfrenta a la presión de competir con Google para ganar una asociación de chatbot de IA con Apple, que se espera que se dé a conocer durante la WWDC de junio. La asociación podría ser uno de los acuerdos comerciales más importantes en tecnología.

Dicho esto, el nuevo equipo de seguridad de OpenAI está compuesto en gran medida por miembros de la junta contratados tras el regreso de Altman a OpenAI, y nuevos jefes de departamento a los que se les concedió más poder como resultado de las recientes salidas.

El nuevo grupo de seguridad es un pequeño paso para abordar las preocupaciones de seguridad que afectan a OpenAI.

Autor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *