Rubén Balbastre

“We’re not selling agents — we’re selling poor imitators.”

Octubre 2025

Este escrito se lo dedico a hacer referencia a la entrevista de Andrej Karpathy, ex investigador de Tesla en los vehículos autónomos y ex OpenAI, disponible en Youtube (abajo enlace). A pesar de que profundizan en diversos momentos en aspectos técnicos de los modelos de inteligencia artificial, creo que es recomendable escucharla para cualquiera interesado en este mundo independientemente de su nivel para entender qué nos hace falta para llegar a crear “Agentes”.

Aquí resumo algunas de las partes más interesantes bajo mi punto de vista:

Andrej se centra en llamar a agentes a aquello que realmente es independiente y funciona de verdad. Como él dice, valoro mucho más un producto final que una demo. El llegar al 99.99% de fiabilidad y no un 80% de la demo es la gran diferencia. Si trabajas en el mundillo de la IA, te habrás hartado de ver demos de “agentes” que usan de motor uno o varios modelos de lenguaje, que nunca llegan a pasar de demo.

La entrevista deja varios puntos interesantes sobre los que reflexionar. La frase que da título a la entrevista hace referencia a la similitud entre los modelos de inteligencia artificial actuales conocidos como LLM y el mundo animal: “We’re summoning ghosts, not building animals”.

Andrej explica que los LLM son máquinas de aprendizaje que dada su excelente capacidad de aprender patrones estadísticos entre tokens son capaces de memorizar todo internet durante la época de pre-training y comprimir ese conocimiento de los pesos del modelo. Posteriormente, mediante la técnica de post-training conocida como supervised-fine-tuning este conocimiento embebido en los pesos del modelo es posible expresarlo de una manera casi tan natural para nosotros como si lo hiciese un humano.

Estos dos puntos permiten que sirvan como enciclopedia. Sin embargo, de ahí a servir como motor para ser liderar la autonomía hay un gran paso. Mucho se ha escuchado sobre que el año de los agentes iba a ser 2025. Si ya podía resultar poco realista, las palabras de un investigador de esta talla dejan más dudas. En palabras del autor, quiźas es una década.

Sin lugar a dudas, estos modelos de lenguaje pueden servir como motor de agentes para ciertos casos de uso donde los requisitos reales cumplan con las cualidades de los actuales modelos. Sin embargo, es un error pensar que porque sirva para un caso de uso sirva para todos.

Pese a que los modelos de lenguaje actuales incluyen más técnicas de aprendizaje en el post-entrenamiento como el aprendizaje por refuerzo para problemas matemáticos y de código, esto no cambia la naturaleza del modelo. Simplemente, permite estirar el chicle en otros casos de uso.