OpenAI retira varios modelos GPT: lo que debes saber

OpenAI ha anunciado una importante reestructuración de su catálogo de modelos de inteligencia artificial, eliminando gradualmente algunas versiones populares para dar paso a su nueva generación encabezada por GPT-5 . Los desarrolladores y usuarios deben prepararse para varios cambios que tendrán lugar entre septiembre de 2025 y marzo de 2026.

Modelos que desaparecen el 28 de septiembre de 2026

Según la documentación oficial de OpenAI, cuatro modelos importantes dejarán de estar disponibles el 28 de septiembre de 2026 :
gpt-3.5-turbo-instruct: OpenAI recomienda migrar a GPT-5 mini o GPT-4.1 mini para tareas que requieran baja latencia y no necesiten capacidades de razonamiento complejas.
babbage-002: También con recomendación de migrar a las versiones mini de la nueva generación.
davinci-002: Mismo destino que los anteriores modelos básicos
gpt-3.5-turbo-1106: Una versión específica del popular GPT-3.5 que también será descontinuada.

Versiones deprecadas y migracion recomendada en ChatGPT

Los grandes cambios de marzo de 2026

Tres meses antes, el 26 de marzo de 2026, OpenAI retirará algunos de sus modelos más avanzados :
gpt-4-0314: Una de las primeras versiones del revolucionario GPT-4.
gpt-4-1106-preview: Versión preliminar que muchos desarrolladores utilizan actualmente.
gpt-4-0125-preview: Incluye también gpt-4-turbo-preview y gpt-4-turbo-preview-completions.
Para estos modelos más potentes, OpenAI sugiere migrar directamente a GPT-5 o GPT-4.1, dependiendo de las necesidades específicas de cada aplicación.

La estrategia de simplificación

Este movimiento forma parte de una estrategia más amplia de OpenAI para simplificar su oferta de productos y “hacer que la IA funcione de manera más fluida para los usuarios” . La compañía ha reconocido que sus múltiples modelos y opciones habían generado confusión entre desarrolladores y usuarios finales .
Con el lanzamiento de GPT-5 en agosto de 2025, OpenAI ha comenzado a unificar todas sus capacidades en un sistema más coherente . El nuevo modelo promete ser más inteligente, rápido y menos propenso a alucinaciones que sus predecesores.

Impacto para desarrolladores y empresas

Los desarrolladores que utilicen estos modelos a través de la API de OpenAI recibirán notificaciones por correo electrónico con suficiente antelación . La empresa garantiza que los clientes tendrán tiempo suficiente para migrar sus aplicaciones y flujos de trabajo.

Para las empresas que dependan de estos modelos, la transición representa una oportunidad de adoptar tecnologías más avanzadas, aunque requerirá una planificación cuidadosa . Los nuevos modelos GPT-5 y GPT-4.1 ofrecen mejores capacidades multimodales y un rendimiento superior en tareas como programación, matemáticas y escritura creativa.

GTC 2024: Nvidia presenta un procesador para la era de la IA generativa

Nvidia ha arrancado la conferencia de desarrolladores, GTC 2024, por la puerta grande. Su CEO y fundador, Jensen Huang, ha sido el encargado de presentar las novedades de la compañía: Nvidia Blackwell, los microservicios NIM, las API de Omniverse Cloud y mucho más.

La IA generativa promete revolucionar todas las industrias que toca, todo lo que se necesita es la tecnología para enfrentarse a ese desafío. Y la empresa de microprocesadores parece haber tomado la delantera en lo que a IA se refiere, lo que le ha llevado a aumentar su cotización en bolsa más de un 240% en el último año.

Nvidia GTP 2024
Nvidia GTP 2024

«Creamos un procesador para la era de la IA generativa», afirmó Huang cuando presentó este lunes la plataforma Blackwell y describió los principales avances que una mayor capacidad informática puede ofrecer en todos los campos, desde el software hasta los servicios, pasando por la robótica o la tecnología médica.

«La computación acelerada ha llegado a un punto de inflexión: la computación de propósito general se ha quedado sin fuerza», dijo Huang ante más de 11.000 asistentes al GTC 2024 que se dieron cita en el estadio SAP Center de Silicon Valley (con cientos de miles siguiendo en evento en streaming).

“Necesitamos otra forma de hacer informática, para que podamos seguir escalando, para que podamos seguir reduciendo el coste de la informática, para que podamos seguir consumiendo más y más informática y al mismo tiempo ser sostenibles. La computación acelerada es una aceleración espectacular respecto de la computación de propósito general, en todas las industrias”.

Su presentación de 20 minutos, con una pantalla de más de 12 metros de alto, entusiasmó a los asistentes al Centro de Convenciones de San José, entre los que se encontraban desde directores ejecutivos de las principales empresas tecnológicas a desarrolladores, empresarios y entusiastas de la inteligencia artificial.

Nvidia GTP 2024 GB200
Nvidia GTP 2024 GB200

Entre lo más destacado de su presentación, la nueva plataforma Nvidia Blackwell que liberará. la IA generativa en tiempo real en modelos de lenguaje de gran tamaño con billones de parámetros.

También Nvidia NIM, los microservicios que ofrecen una nueva forma de empaquetar y entregar software que conecta a los desarrolladores con cientos de millones de GPU para implementar IA personalizada de todo tipo. Y para llevar la IA al mundo físico, Huang presentó las API de Omniverse Cloud para ofrecer capacidades de simulación avanzadas.

GTC se ha convertido ya en una referencia en el mundo de la tecnología, la conferencia de Nvidia ha pasado de un pequeño salón de un hotel hace 15 años, a lo que hemos visto hoy, la mayor conferencia sobre inteligencia artificial del mundo, regresando a un evento presencial tras 5 años.

Al inicio de su charla, Huang explicó que el auge de la IA multimodal (capaz de procesar diversos tipos de datos manejados por diferentes modelos) le da a la IA una mayor adaptabilidad y poder, aumentando sus parámetros, estos modelos pueden manejar análisis más complejos.

Pero esto conlleva un significativo aumento de la necesidad de potencia de cómputo. Y a medida que estos sistemas colaborativos y multimodales se vuelven más complejos, con millones de parámetros, la demanda de infraestructura avanzada se intensifica.

«Necesitamos modelos aún más grandes», dijo Huang. «Vamos a entrenarlo con datos multimodales, no solo texto en Internet, lo vamos a entrenar con textos e imágenes, gráficos y tablas”.

Keynote de Jensen Huang en Nvidia GTC 2024

La próxima generación de computación acelerada

Si hubiese que resumir la presentación en pocas palabras: «necesitamos GPU más grandes», afirmó Huang mientras sacada un chip Blackwell de su bolsillo. La plataforma Blackwell parece estar diseñada para afrontar ese desafío.

Esta nueva arquitectura de microprocesadores lleva el nombre de David Harold Blackwell, matemático de la Universidad de California en Berkeley, especializado en teoría de juegos y estadística, y el primer académico negro incorporado a la Academia Nacional de Ciencias, que sucede a la arquitectura NVIDIA Hopper, lanzada hace dos años.

Nvidia GTP 2024
Nvidia GTP 2024

Blackwell ofrece un rendimiento 2,5 veces mayor que su predecesor en FP8 para entrenamiento, por chip, y 5x con FP4 para inferencia. Cuenta con una interconexión NVLink de quinta generación que es dos veces más rápida que Hopper y escala hasta 576 GPU.

Y el superchip NVIDIA GB200 Grace Blackwell conecta dos GPU Blackwell NVIDIA B200 Tensor Core a la CPU NVIDIA Grace a través de una interconexión de chip a chip NVLink de consumo ultrabajo de 900 GB/s.

«Esta es la primera de su tipo en la que cabe tanta computación en un espacio tan pequeño», dijo Huang. «Dado que esto es coherente con la memoria, se siente como si fuera una gran familia feliz trabajando juntos en una aplicación».

Para obtener el mayor rendimiento de IA, los sistemas con tecnología GB200 se pueden conectar con las plataformas NVIDIA Quantum-X800 InfiniBand y Spectrum-X800 Ethernet, también anunciadas hoy, que ofrecen redes avanzadas a velocidades de hasta 800 Gb/s.