cupure logo
queunalosconporlasdelmásasíson

Los nuevos grandes modelos de IA generativa no paran de retrasarse. Es un peligroso indicio de que hemos tocado techo

Los nuevos grandes modelos de IA generativa no paran de retrasarse. Es un peligroso indicio de que hemos tocado techo
Esperábamos tener disponible GPT-5 a principios de año, pero OpenAI nos dio GPT-4.5. El modelo de IA generativa, que teóricamente representaba un salto notable respecto a sus predecesores, acabó decepcionando y la empresa anunció que lo eliminará de su API en julio. Era demasiado caro y, simplemente, no compensaba. Aquella ya era una mala señal del avance de la IA, pero hay más. Y GPT-5, ¿qué? Se esperaba que GPT-5 llegara a mediados de año. Sam Altman lleva meses creando hype, pero en diciembre supimos que la llegada de ese modelo estaba siendo problemático. El salto en prestaciones no estaba siendo el esperado y el coste de desarrollarlo es descomunal. ¿Qué hicieron en OpenAI? Retrasarlo y lanzar en su lugar GPT-4.5 que, como hemos visto, fue una de las grandes decepciones de la historia de OpenAI. Mala señal número uno. En Xataka GPT-4.5 no es mejor que sus rivales en casi nada. Es la prueba de que los modelos de IA tradicionales ya casi no avanzan Behemoth se retrasa. Según indican en The Wall Street Journal, Meta va a retrasar el lanzamiento y despliegue de su modelo más ambicioso hasta la fecha, Llama 4 Behemoth. Este "monstruo" con 288.000 millones de parámetros activos (dos billones en total) es el tercer miembro de la recién presentada familia Llama 4. Sin embargo, según WSJ "ingenieros de la compañía están teniendo dificultades para mejorar de forma significativa" sus capacidades. Debía haber llegado en abril, pero ahora se estima que llegará en otoño, o incluso más tarde. Frustración. Fuentes cercanas a la compañía indican que los directivos están frustrados con el rendimiento del equipo que está desarrollando Llama 4 Behemoth. Ya se contemplan "cambios de gestión significativos" que plantearían movimientos internos (y quién sabe si despidos) como resultado de esos malos resultados. Y no es que los modelos disponibles de Llama 4 estén teniendo buena recepción, que se diga. Mala señal número dos. Desbandada. En WSJ destacan también cómo la primera versión de Llama fue creada por su equipo de Investigación de IA Fundamental, formado por académicos e investigadores. Desde entonces 11 de los 14 investigadores han dejado la empresa. Anthropic tampoco avanza. También esperábamos un salto "redondo" en Claude, el chabot de IA generativa de Anthropic, pero en febrero la empresa presentó Claude 3.7. Es cierto que este modelo sí ofreció prestaciones llamativas, pero de momento su versión Opus, la más ambiciosa, sigue sin presentarse, y no se sabe nada de Claude 4.0. Mala señal número tres. Saltos no, como mucho saltitos. Lo que estamos viendo en los últimos meses no son saltos significativos en la capacidad de los modelos, sino mejoras llamativas solo en algunos apartados o características efectistas. Ocurrió con Gemini 2.5 Pro, especialmente potente en programación y que ha permitido a Google ganar enteros, pero también con OpenAI y las célebres imágenes que imitan a Studio Ghibli o a Grok 3, que se ha hecho más famoso por su falta de censura que por su precisión o calidad (que no es mala). Desaceleración. Todo esto vuelve a disparar el debate sobre una potencial "desaceleración" de la IA: el escalado ya no parece funcionar tan bien, y eso de usar más GPUs y más datos para entrenar modelos no está ofreciendo el retorno esperado. Jaime Sevilla, CEO de EpochAI, sí creía que el ritmo de mejora estaba siendo el esperado, pero estos retrasos desde luego vuelven a poner en tela de juicio el avance futuro de la IA generativa. Los agentes y la IA que "razona" son la esperanza. Los modelos con capacidad de "razonamiento" sí que han permitido plantear mejoras llamativas en algunos ámbitos, y las empresas se han lanzado a presentar este tipo de variantes y modos de investigación profunda para usos especializados. La otra gran esperanza de 2025 son los agentes de IA capaces de completar secuencias de tareas de forma autónoma para resolver un problema, incluso conectándose a otros servicios o fuentes de datos. De momento ya tenemos ejemplos destacables en el campo de la programación, pero las aplicaciones prácticas para usuarios finales son de momento limitadas. Imagen | Meta En Xataka | Hay demasiados modelos de IA. Eso plantea una verdadera sentencia de muerte para Anthropic y Claude - La noticia Los nuevos grandes modelos de IA generativa no paran de retrasarse. Es un peligroso indicio de que hemos tocado techo fue publicada originalmente en Xataka por Javier Pastor .
xataka
hace alrededor de 8 horas
Compartir enlace
Leer mas >>

Comentarios

Noticias tecnológicas