OpenAI anunció actualizaciones de los modelos de inteligencia artificial (IA) que impulsan su asistente ChatGPT. En medio de actualizaciones menos notables, la empresa incluyó una mención a una posible solución a un problema de “pereza” ampliamente reportado en GPT-4 Turbo desde su lanzamiento en noviembre.
La compañía también anunció un nuevo modelo GPT-3.5 Turbo (con precios más bajos), un nuevo modelo de incrustación, un modelo de moderación actualizado y una nueva forma de administrar el uso de la API.
En referencia a GPT-4 Turbo indica OpenAI que “este modelo completa tareas como la generación de código más a fondo que el modelo de vista previa anterior y está destinado a reducir los casos de ‘pereza’ en los que el modelo no completa una tarea”.
Desde el lanzamiento de GPT-4 Turbo, un gran número de usuarios de ChatGPT han informado que el asistente de IA se ha negado a realizar tareas (especialmente tareas de codificación) con la misma profundidad exhaustiva que en versiones anteriores de GPT-4.
OpenAI nunca ha ofrecido una explicación oficial para este cambio de comportamiento, pero los empleados de OpenAI han reconocido previamente en las redes sociales que el problema es real, y la cuenta de ChatGPT X escribió en diciembre: “¡Hemos escuchado todos sus comentarios sobre que GPT4 se está volviendo más perezoso! no hemos actualizado el modelo desde el 11 de noviembre, y esto ciertamente no es intencional. El comportamiento de los modelos puede ser impredecible, y estamos estudiando la posibilidad de solucionarlo”.
Nuevo GPT-3.5 Turbo y otras actualizaciones de OpenAI
OpenAI anunció asimismo una nueva versión de GPT-3.5 Turbo (gpt-3.5-turbo-0125), que dice que ofrecerá “varias mejoras, incluida una mayor precisión en la respuesta en los formatos solicitados y una corrección para un error que causaba un problema de codificación de texto para llamadas a funciones en idiomas distintos del inglés”.
Y el costo de GPT-3.5 Turbo a través de la API de OpenAI disminuirá por tercera vez este año “para ayudar a nuestros clientes a escalar”. Los precios de los nuevos tokens de entrada son un 50 por ciento más bajos, y los precios de salida son un 25 por ciento menos.
Los precios más bajos de los tokens para GPT-3.5 Turbo harán que operar bots de terceros sea significativamente menos costoso, pero el modelo GPT-3.5 generalmente es más probable que tenga las llamadas alucinaciones, comparado cone GPT-4 Turbo.
OpenAI también anunció nuevos modelos de incrustación, text-embedding-3-small y text-embedding-3-large, que convierten el contenido en secuencias numéricas, lo que ayuda en tareas de aprendizaje automático como la agrupación y la recuperación. Y un modelo de moderación actualizado, text-moderation-007, es parte de la API de la compañía que “permite a los desarrolladores identificar texto potencialmente dañino”, según OpenAI.
Por último, OpenAI está implementando mejoras en su plataforma de desarrolladores, introduciendo nuevas herramientas para gestionar las claves API y un nuevo panel de control para realizar un seguimiento del uso de la API. Los desarrolladores ahora pueden asignar permisos a las claves de API desde la página de claves de API, lo que ayuda a tomar medidas drásticas contra el uso indebido de estas (si caen en las manos equivocadas) que pueden costar mucho dinero a los desarrolladores.
El panel de control de la API permite a los desarrolladores “ver el uso a nivel de función, equipo, producto o proyecto, simplemente teniendo claves de API separadas para cada una”.
A medida que el mundo de los medios de comunicación parece arremolinarse en torno a la empresa con controversias y artículos de opinión sobre las implicaciones de su tecnología, lanzamientos como estos muestran que los equipos de desarrollo de OpenAI siguen avanzando como de costumbre con las actualizaciones a un ritmo bastante regular.
A pesar de que la compañía se desmoronó casi por completo a fines del año pasado, parece que, bajo el capó, todo sigue como de costumbre para OpenAI.