OpenAI acaba de presentar dos nuevos modelos, GPT-5.4 mini y GPT-5.4 nano, diseñados para optimizar la velocidad de procesamiento y el costo de los sistemas de inteligencia artificial a gran escala, al tiempo que se heredan muchas capacidades de la versión avanzada GPT-5.4.
Este es el siguiente paso después de que la compañía lanzara el GPT-5.4, una versión destacada con la capacidad de ajustar la dirección de respuesta de manera flexible, mejorar la investigación web en profundidad y mejorar el razonamiento con un contexto largo.
Entre ellos, el GPT-5.4 mini se considera una mejora significativa en comparación con el GPT-5 mini anterior.
Este modelo mejora significativamente la capacidad de programación, razonamiento, comprensión multimodal y uso de herramientas.
En particular, la velocidad de procesamiento del GPT-5.4 mini es el doble de rápida, mientras que los costos operativos son significativamente más bajos.
Según las pruebas de rendimiento, este modelo alcanza una tasa de cumplimiento de tareas casi equivalente a GPT-5.4, pero es más óptimo en cuanto a latencia y costo, especialmente adecuado para procesos de programación a gran escala.
En el segmento inferior, el GPT-5.4 nano está diseñado para tareas prioritarias de velocidad y costo, como la clasificación de datos, la extracción de información, la clasificación de contenido y problemas de codificación simples.
Esta es una opción adecuada para sistemas que necesitan procesar grandes volúmenes con requisitos de retroalimentación casi instantáneos.
Los nuevos modelos se centran en escenarios en los que la latencia afecta directamente la experiencia del usuario.
Por ejemplo, los asistentes de programación necesitan respuestas rápidas, los agentes de IA auxiliares manejan tareas paralelas, o las aplicaciones multimodales necesitan análisis de imágenes en tiempo real.
Un punto notable es la capacidad de despliegue en un sistema multimodelo. En la plataforma Codex, GPT-5.4 puede desempeñar un papel de coordinación, dividiendo tareas pequeñas como la búsqueda de código fuente, la lectura de documentos o el análisis de archivos para minimodelos de procesamiento paralelo.
En cuanto a la integración, GPT-5.4 mini ya está presente en API, Codex y ChatGPT. El modelo admite la entrada de texto, imágenes, llamadas de funciones, búsqueda web, procesamiento de archivos y tiene ventanas contextuales de hasta 400.000 tokens.
En ChatGPT, los usuarios Free y Go pueden acceder a través de la opción "Thinking", y también es una opción de respaldo cuando el GPT-5.4 alcanza el límite de velocidad.
Mientras tanto, GPT-5.4 nano actualmente solo se proporciona a través de API, dirigido a empresas que necesitan implementar IA al menor costo.
En términos de precio, GPT-5.4 mini cuesta 0,75 dólares por millón de tokens de entrada y 4,5 dólares de salida.
Con GPT-4 nano, el costo es de 0,2 USD y 1,25 USD respectivamente, lo que muestra la clara estrategia de OpenAI para expandir el acceso a la IA a más audiencias.