- Fallo del enrutador de modelos provocó respuestas inconsistentes en GPT-5.
- OpenAI retiró modelos previos y repuso GPT-4o tras las quejas.
- Críticas por errores puntuales y un tono más frío del asistente.
- Sam Altman admitió fallos y anunció modos Auto/Fast/Thinking y mejoras.
El lanzamiento de GPT-5 llegó con errores visibles desde el primer día, con informes de respuestas incoherentes, cambios de tono inesperados y decisiones técnicas que desconcertaron a la base de usuarios. La combinación de una presentación muy ambiciosa y una experiencia irregular en chat disparó las críticas y el debate público.
OpenAI respondió con rectificaciones tempranas y promesas de mejora: restableció temporalmente GPT-4o para clientes de pago, admitió fallos en el sistema de enrutamiento y aceleró ajustes para estabilizar el comportamiento del asistente. Aun así, el arranque dejó dudas sobre el criterio del modelo por defecto y la gestión del cambio.
Qué falló en el estreno de GPT-5
El punto más señalado fue el enrutador de modelos, un sistema que decide automáticamente qué variante responde a cada consulta. En la práctica, provocó inconsistencias: una respuesta brillante podía ir seguida de otra desacertada dentro de la misma conversación, dando sensación de producto a medio cocer.
La retirada inicial de modelos anteriores (incluido GPT-4o) encendió a la comunidad. Usuarios que dependían de su tono más humano y estable protestaron y, a los pocos días, OpenAI restableció GPT-4o para suscriptores mientras afinaba el despliegue de GPT-5.
OpenAI introdujo controles de uso y nuevos modos. Sam Altman anunció en X tres opciones: «Auto», «Fast» y «Thinking», así como límites de 3.000 mensajes por semana en GPT-5 Thinking, con capacidad extra según consumo. La intención es dar más control cuando el enrutado no acierta.
La propia presentación recibió críticas por gráficos confusos (escalas y ejes poco claros) que alimentaron la percepción de un lanzamiento precipitado en la forma y el fondo.
Errores reportados y malestar de la comunidad
Se viralizaron ejemplos de fallos triviales: errores geográficos, deslices ortográficos y razonamientos matemáticos equivocados. Incluso circuló el caso de asegurar que «strawberry» no contiene la letra «r». Son «alucinaciones» conocidas en IA, pero sorprendieron por su frecuencia en los primeros días.
El cambio de tono generó fricción. Muchos usuarios describieron a GPT-5 como más seco y empresarial. Frente a respuestas cálidas de GPT-4o, emergieron contestaciones lacónicas como un escueto «Apuntado». Algunos expertos ven positivo reducir la adulación, pero reconocen que parte del público aprecia una calidez que ahora percibe ausente.
La presión social cristalizó en peticiones y hilos multitudinarios. Se sumaron miles de firmas para recuperar GPT-4o como opción estable. La confusión por el modelo por defecto y por el enrutado automático fue una queja recurrente en comunidades técnicas y generalistas.
OpenAI defiende que GPT-5 reduce alucinaciones y mejora la calibración, pero la experiencia de muchos en la primera semana no encajó con esa promesa. La empresa atribuye parte del comportamiento errático al enrutador y a la escala del despliegue.
- Inconsistencias por el enrutado dinámico entre modelos.
- Respuestas incorrectas en cultura general y cálculo.
- Percepción de tono más frío y menos empático.
- Retirada temporal de modelos previos muy valorados.
Respuesta de OpenAI y efectos en confianza
Sam Altman admitió que el lanzamiento tuvo errores y que subestimaron lo que supone actualizar para decenas o cientos de millones de personas a la vez. Tras reuniones con prensa y clientes, la compañía se comprometió a mantener modelos anteriores activos y a refinar el enrutado.
La hoja de ruta inmediata incluye ajustes para «parecer más inteligente», mejoras en el sistema de decisión y el despliegue de los modos Auto/Fast/Thinking para modular coste, velocidad y razonamiento. El objetivo declarado es ganar consistencia sin sacrificar utilidad.
La reputación quedó bajo escrutinio. El tropiezo tensiona la credibilidad ante usuarios e inversores en un mercado cada vez más competitivo, donde la solidez del producto pesa tanto como los avances de laboratorio.
Qué significa para el usuario de a pie y para empresas
Para el uso cotidiano, el cambio tiene luces y sombras: menos improvisación y respuestas más prudentes ayudan en tareas sensibles (documentación, pasos guiados, referencias), pero se percibe menos chispa conversacional para creatividad o trato cercano.
En entornos corporativos, la frialdad puede ser una virtud. Menos divagación y más rigor facilitan procesos de varios pasos, planificación y estándares reproducibles, justo donde la consistencia vale tiempo y dinero. La clave estará en estabilizar el enrutador y aclarar qué modelo responde a cada tarea.
La prueba decisiva será la estabilidad en las próximas semanas. Con opciones para elegir modelo, nuevos modos y promesas de iteración rápida, la empresa tiene margen para reconducir el estreno siempre que priorice coherencia, opciones claras y respeto por los flujos de trabajo existentes.
El arranque de GPT-5 evidencia que el error no fue solo técnico: la gestión del cambio y las expectativas importan tanto como el código. El regreso de GPT-4o, los nuevos modos y las mejoras anunciadas muestran reacción rápida; el reto ahora es recuperar confianza con consistencia sostenida.
Redactor apasionado del mundo de los bytes y la tecnología en general. Me encanta compartir mis conocimientos a través de la escritura, y eso es lo que haré en este blog, mostrarte todo lo más interesante sobre gadgets, software, hardware, tendencias tecnológicas, y más. Mi objetivo es ayudarte a navegar por el mundo digital de forma sencilla y entretenida.