Sam Altman se las prometía
muy felices con el
lanzamiento de GPT-5. Sobre el papel (el suyo), este nuevo modelo era un salto cualitativo notable que además introducía cambios polémicos. Para empezar, ese famoso enrutador que es ahora el encargado de evaluar la dificultad de lo que le preguntas y
elige si usa una versión más o menos potente del modelo. Y para terminar, cargarse los modelos antiguos como GPT-4o que durante más de un año han acompañado a los usuarios.
Ambas decisiones estaban dirigidas a una cosa: ganar más dinero a cambio de que tuviéramos
una peor experiencia de usuario. Las críticas
no se hicieron esperar, y tal fue el volumen de ellas que OpenAI ha tenido que dar marcha atrás y deshacer esos cambios. El motín había funcionado, y además de poder elegir la variante de GPT-5 que queremos usar los usuarios de pago han recuperado el
acceso a su añorado GPT-4o.
Este pequeño desastre ha demostrado una vez más que a los usuarios no nos gustan demasiado los cambios, y tampoco nos acaba de convencer que una máquina elija por nosotros. Sobre todo cuando lo que elige es
la versión más barata de GPT-5 para ahorrar todo lo que puede. Lo que
parecía una buena idea se acabó convirtiendo en punta de lanza de las críticas a este lanzamiento.
Hay en realidad otro problema de fondo: que GPT-5 no es mucho mejor que sus predecesores, que es precisamente lo que necesitaba OpenAI. El modelo da un salto sobre todo en sus variantes más potentes, pero aun así
más que un salto lo que hemos dado es un saltito. Eso apunta de nuevo a una
desaceleración de la IA y plantea inevitablemente una pregunta inquietante.
¿Qué hacemos con la IA si ya no puede ser mucho mejor?