
OpenAI ha lanzado una versión más potente de su modelo de IA 'razonamiento' o1, o1-pro, en su API para desarrolladores.
Según OpenAI, o1-pro utiliza más capacidad computacional que o1 para proporcionar respuestas 'consistentemente mejores'. Actualmente, solo está disponible para desarrolladores seleccionados, aquellos que han gastado al menos $5 en los servicios de API de OpenAI, y es caro. Muy caro.
OpenAI cobra $150 por cada millón de tokens (~750,000 palabras) introducidos en el modelo y $600 por cada millón de tokens generados por el modelo. Eso es el doble del precio de GPT-4.5 de OpenAI para la entrada y 10 veces el precio de o1 regular.
OpenAI apuesta a que el rendimiento mejorado de o1-pro convencerá a los desarrolladores de pagar esas sumas principescas.
'O1-pro en la API es una versión de o1 que utiliza más capacidad computacional para pensar más y proporcionar respuestas aún mejores a los problemas más difíciles', dijo un portavoz de OpenAI a TechCrunch. 'Después de recibir muchas solicitudes de nuestra comunidad de desarrolladores, nos complace llevarlo a la API para ofrecer respuestas aún más fiables'.
Sin embargo, las primeras impresiones de o1-pro, que ha estado disponible en la plataforma de chatbots impulsada por IA de OpenAI ChatGPT para suscriptores de ChatGPT Pro desde diciembre, no fueron increíblemente positivas. Los usuarios encontraron que el modelo tenía dificultades con los rompecabezas de Sudoku y se confundía con simples chistes de ilusiones ópticas.
Además, ciertas pruebas internas de OpenAI de finales del año pasado mostraron que o1-pro solo funcionaba ligeramente mejor que o1 estándar en problemas de codificación y matemáticas. Sin embargo, encontraron que respondía a esos problemas de manera más fiable.