Quizás Yann LeCun tiene razón cuando advierte que la carrera tecnológica avanza en la dirección equivocada. En Silicon Valley tantean un futuro donde los LLM sean sólo interfaces lingüísticas Leer Quizás Yann LeCun tiene razón cuando advierte que la carrera tecnológica avanza en la dirección equivocada. En Silicon Valley tantean un futuro donde los LLM sean sólo interfaces lingüísticas Leer
Audio generado con IA
Tres peleas tienen lugar a la vez en el ring de la inteligencia artificial. La que más cautiva al público es la que enfrenta a los tres grandes modelos de lenguaje del momento: GTP-5 (OpenAI), Gemini 3.1 Pro (Google) y Claude Opus 4 (Anthropic). De carácter más geopolítico, el segundo duelo se libra entre EEUU, país al que pertenece el top 3 recién citado, y China, enfrascada en el diseño de sus propios modelos aun con ciertas limitaciones tecnológicas impuestas por la Administración estadounidense. Se cierra el triángulo con un pulso conceptual que puede cambiarlo todo: aunque los LLM siguen en primera línea mediática y financiera, poco a poco se abren paso los world models, sistemas que van mucho más allá de la predicción de tokens.
Cada miembro del top 3 entre los mejores LLM presenta fortalezas y debilidades en relación con sus competidores. ChatGPT, tal y como popularmente se conoce, goza del favor de una audiencia más generalista, pero en una capa más profunda de uso despunta en matemáticas y razonamiento formal (obtiene un 100% de rendimiento en el benchmark AIME 2025), se maneja muy bien en programación algorítmica (algoritmos complejos, data structures y código matemático o científico) y es capaz de bajar al terreno de lo sencillo conceptos bastante complejos.
Gemini se mueve mejor en la multimodalidad: es un modelo capaz de pescar información con mayor agilidad cuando las fuentes, además del texto, son vídeos, imágenes, audio, gráficos y código. Dispone asimismo de más de un millón de tokens de contexto, lo que se traduce en habilidades propias de Cortocircuito como leer libros enteros, analizar repositorios completos y procesar grandes bases documentales. También es una referencia en razonamiento interdisciplinar.
Claude goza del favor de un número creciente de programadores por sus dotes para el coding profesional, destacando en cuatro ámbitos: revisar código, refactorizar proyectos amplios, depurar sistemas complejos y permitir la migración de frameworks. Además -y esto es muy relevante- se las apaña muy bien cuando de orquestar agentes autónomos se trata, sobre todo si entran en juego herramientas externas (APIs, buscadores, archivos locales, etc).
Si el trío estadounidense es actualmente el tier 1 de la industria, China se las arregla para hacer más con menos, tal y como demuestra DeepSeek, situada por los expertos justo un peldaño por debajo, casi tan aplicada como GPT-5 en matemáticas y razonamiento (97% en MATH, otro benchmark de referencia), con buenos resultados en programación, y capaz de entrenar a sus modelos con costes (declarados) muy inferiores a los de las rivales de Silicon Valley. En China también progresan las iniciativas de Alibaba (Qwen), Baidu (Ernie X1 y Ernie 4.5) y Moonshot (Kimi K1.5), todas ellas tier 2.
Pero el cogollo del asunto, más que en responder a cuál es el LLM mejor pertrechado, está en averiguar si el camino seguido hasta ahora tiene sentido. Después de inversiones multimillonarias y el despliegue de centros de datos sedientos de recursos energéticos, resulta que quizás lo construido parta de una filosofía equivocada, pues los grandes modelos de lenguaje se sustentan en probabilidades pero son incapaces de medir por sí mismos el mundo (sus temperaturas, sus oscilaciones cualitativas y cuantitativas).
Los world models están concebidos para simular qué ocurre si se emprende una acción determinada, eliminando el riesgo de alucinación. Esta habilidad convierte a la máquina en una especie de adivina capaz de predecir las consecuencias de determinadas decisiones, algo óptimo para la investigación científica, la robótica o los mismos agentes autónomos. Ya lo dice Yann LeCun, fundador de AMI Labs, profesor en la Universidad de Nueva York y eminencia de la IA. En su opinión, los LLM seguirán existiendo, pero como pieza menor de un entramado superior donde vendrían a funcionar como una interfaz lingüística. Compañías como Google, Meta y la propia OpenAI saben que quizás LeCun tenga razón y llevan meses moviendo ficha en esa dirección.
Actualidad Económica // elmundo
