Hace un mes, el sector de la inteligencia artificial fue sacudido por una noticia inesperada. Ilya Sutskever, cofundador de OpenAI, anunció su salida de la compañía. Este movimiento desencadenó especulaciones sobre una batalla de poder interna entre Sutskever y el director ejecutivo, Sam Altman, con este último emergiendo como vencedor. Ahora, Sutskever ha dado su respuesta.
La nueva startup de Sutskever, Safe Superintelligence (SSI) Inc., promete ser una competencia formidable para OpenAI. En un comunicado reciente, Sutskever presentó su iniciativa como “el primer laboratorio SSI del mundo, con un objetivo y un producto: una superinteligencia segura”. Este anuncio ha captado la atención del sector, dada la reputación de Sutskever como uno de los investigadores más respetados en el campo de la IA.
Acompañando a Sutskever en esta nueva empresa están Daniel Levy, ex empleado de OpenAI, y Daniel Gross, un inversionista y empresario de IA con experiencia en Y Combinator y participaciones en empresas como GitHub e Instacart. Gross también está involucrado en compañías de IA como Perplexity.ai, Character.ai y CoreWeave. Este trío de talentos e inversión plantea una propuesta sólida para SSI.
El manifiesto de la nueva compañía establece que su enfoque singular será una superinteligencia que podría reemplazar las capacidades cognitivas humanas, sin las presiones de generar ingresos para inversores. Según los cofundadores, la empresa no estará distraída por gastos generales de gestión o ciclos de productos, asegurando que la seguridad, protección y progreso no estén comprometidos por presiones comerciales a corto plazo. La sede de SSI se establecerá en Palo Alto y Tel Aviv.
La renuncia de Sutskever a OpenAI se enmarca en un contexto de tensiones internas. Tras el intento fallido de desplazar a Altman, Sutskever permaneció en la empresa unos meses antes de partir en mayo. Al renunciar, expresó su emoción por un proyecto significativo para él, del cual compartiría detalles a su debido tiempo. Ahora, con el lanzamiento de SSI, ese proyecto ha tomado forma.
Durante su tiempo en OpenAI, Sutskever jugó un papel crucial en el desarrollo de la IA generativa y en la creación de un “equipo de Superalineación” para garantizar un futuro seguro de la IA. Su preocupación por los posibles peligros de la inteligencia artificial, incluyendo la posibilidad de que se vuelva peligrosa para la humanidad, ha sido una constante en su carrera.
Con Safe Superintelligence, Sutskever parece seguir esa misma línea de pensamiento. El objetivo es desarrollar una máquina más inteligente que los humanos, pero de forma segura. Este es un desafío monumental, pero con la experiencia y la visión de Sutskever y su equipo, el mundo de la inteligencia artificial podría estar en el umbral de una nueva era de seguridad y progreso.