La revista profesional sobre tecnología y transformación digital
Depositphotos_211389216_XL 2
Carlos López

Carlos López Ariztegui

Profesor Inteligencia Artificial, Decano ESIC Business & Marketing School.

Reescribiendo a Rodney Brooks en 2025, el arquitecto de la inteligencia corpórea

Para entender la Inteligencia Artificial (IA) en 2025 conviene recordar a Rodney Brooks, un clásico ejemplo de pensador disruptivo. Se convirtió en una especie de marginado en su campo cuando, en una conferencia en 1985, presentó un robot que se movía por un espacio (la sala de exposición de la conferencia) con mucho más éxito que cualquier otro intento hasta la fecha. Y lo más sorprendente: el robot básicamente no tenía cerebro, ni unidad central de procesamiento, ni realizaba razonamientos, ni construía mapas de su entorno. Simplemente deambulaba por la sala y reaccionaba directamente a sus sensores, usando el mundo como su propio modelo. Su enfoque Sense-act (Percibir-Actuar) era un concepto impensable frente al Sense-Plan-Act (Percibir-Planificar-Actuar) dominante en la época.

La división entre ambos enfoques representa dos filosofías opuestas sobre la naturaleza de la inteligencia en el entorno de la robótica. El modelo Sense-Plan-Act es la encarnación de la IA simbólica: asume que un agente inteligente primero debe percibir el mundo y traducirlo a una representación interna, un mapa simbólico sobre el cual razona y planifica lógicamente antes de actuar.

Por el contrario, el enfoque Sense-Act de Brooks es la base del modelo corpóreo. Rechaza la necesidad de esta costosa representación simbólica, argumentando que el mundo es su propio mejor modelo. En este paradigma, la inteligencia no es un proceso de deliberación interna, sino una propiedad emergente que surge directamente de la interacción rápida y continua entre los sensores y los actuadores de un cuerpo físico dentro de su entorno. Está inspirado en la evolución biológica: los organismos simples (insectos, bacterias) no tienen mapas internos complejos, sino comportamientos reactivos muy efectivos. Es un cambio radical: la inteligencia deja de ser algo que un cerebro ‘piensa’ para convertirse en algo que un cuerpo ‘hace’.

Como el propio Brooks relata, su malestar con el pensamiento mayoritario de la IA (la manada, según sus propias palabras) lo llevó a formalizar sus ideas en el artículo publicado en 1986 ‘A Robust Layered Control System for a Mobile Robot’.

El primer intento no fue precisamente alentador: los dos revisores de la revista IEEE (Journal of Robotics and Automation) recomendaron no publicarlo. Sin embargo, el editor, George Bekey, decidió ignorar sus recomendaciones y publicarlo de todos modos. Fue una decisión que cambiaría el campo de la robótica para siempre.

Robótica del comportamiento

A partir de ahí, las consecuencias de esa decisión fueron inmensas. Ese artículo se convirtió en su trabajo más citado (con más de 13.400 citas académicas según Google Scholar) y su arquitectura de subsunción, un sistema de control para robots basado en máquinas de estados finitos, sentó las bases de lo que hoy se conoce como robótica basada en el comportamiento.

Su gran innovación fue proponer un modelo de sistemas reactivos organizados en capas, donde cada capa gestiona un comportamiento simple (cómo evitar obstáculos, caminar o buscar objetos) y las capas superiores modulan o inhiben a las inferiores, sin necesidad de un planificador central ni de construir un mapa interno del mundo.

 

La inteligencia deja de ser algo que un cerebro ‘piensa’ para convertirse en algo que un cuerpo ‘hace’

 

El impacto de esta idea fue monumental: no solo condujo directamente a la creación de Roomba, el robot más producido de la historia con más de 40 millones de unidades vendidas, sino que sus principios arquitectónicos evolucionaron hasta convertirse en los árboles de comportamiento (behavior trees).

Un árbol de comportamiento es una forma de estructurar cómo un agente autónomo, ya sea un robot o un personaje virtual, cambia entre distintas tareas. Se trata de una manera eficiente de construir sistemas complejos que son a la vez modulares y altamente reactivos, características clave tanto en robótica como en IA y videojuegos.

Por eso, hoy son la base para especificar las acciones de los personajes en la mayoría de los videojuegos. Un legado con un impacto multimillonario (el valor global del sector alcanzó los 400.000 millones de dólares) que demuestra el poder de una inteligencia que emerge de la acción, no de la planificación abstracta.

Pero Brooks, lejos de la arrogancia, admite haber tenido una suerte extraordinaria, ya que la mayoría de los investigadores que se desvían del pensamiento mayoritario acaban equivocándose. Esta perspectiva, forjada en la rebelión y validada por un éxito monumental, es el telón de fondo de su influyente artículo de 1988, ‘AI: great expectations’, donde advertía contra los ciclos de promesas exageradas (hype). Es desde ese escepticismo radicalmente informado que hoy volvemos a mirar nuestro presente.

2025: mismas expectativas, nuevas fronteras

En 1988, Rodney Brooks describió un patrón tan predecible como humano: la IA inspira grandes expectativas que, tras una demostración seductora, a menudo son frustradas. Habló de los sueños de los años 50 con traductores automáticos, de la decepción con los robots industriales en los 80 por su falta de flexibilidad y de la fragilidad de los sistemas expertos, cuyas simples representaciones del mundo los hacían poco robustos y propensos a fallos

En el momento en que escribía, la nueva moda (el ciclo de hype) eran las redes neuronales, un resurgimiento de ideas de los 60 que prometían, una vez más, cambiarlo todo.

Hoy, en 2025, el eco de sus palabras es asombrosamente familiar, aunque a una escala que ni los más optimistas de 1988 hubieran imaginado. El ciclo de hype se ha repetido, pero con esteroides. Hemos tenido nuestras propias olas de expectativas: la promesa de coches totalmente autónomos para 2020, o la visión de una AGI a la vuelta de la esquina. Y ahora vivimos inmersos en el boom más grande de todos: la era de los modelos generativos y fundacionales.

 

La arquitectura de subsunción sentó las bases de lo que hoy se conoce como robótica basada en el comportamiento

 

La gran ironía es que estos modelos, como GPT-4 y sus sucesores, son, en esencia, la culminación de la IA incorpórea que Brooks criticaba. Son auténticos ‘cerebros gigantes’ que procesan no ya 500 multiplicaciones por segundo de dos números de 10 dígitos, sino billones de operaciones de coma flotante por segundo sobre redes neuronales con cientos de miles de millones de parámetros.

Estos parámetros no son datos del texto, sino los pesos matemáticos que codifican patrones aprendidos a partir de prácticamente la totalidad del texto humano disponible. Han demostrado una capacidad asombrosa para generar lenguaje, imágenes y código, superando en muchas tareas a los propios creadores humanos. No es de extrañar que muchos crean que, por fin, “la clave de la inteligencia ha sido desbloqueada”.

 

Portada de la web de Rodney Brooks (Fuente: rodneybooks.com).

 

Sin embargo, las advertencias de Brooks sobre la fragilidad siguen vigentes. Los problemas de ‘alucinaciones’, la falta de comprensión causal y la incapacidad de estos modelos para distinguir la verdad de la ficción plausible son la manifestación moderna de lo que Brooks llamó sistemas quebradizos (poco robustos y propensos a fallos) cuando el mundo se desvía de sus datos de entrenamiento. Su inteligencia, aunque vasta, carece del anclaje en la realidad que Brooks consideraba indispensable.

Es aquí donde sus ideas sobre la corporalidad cobran una nueva vida. El verdadero avance disruptivo no son solo los LLMs, sino su integración en agentes autónomos y robots. Estamos viendo cómo los principios reactivos de Brooks (Sense-Act) se combinan con las capacidades de planificación de alto nivel de los LLMs (Plan).

 

Un árbol de comportamiento es una forma de estructurar cómo un agente autónomo, ya sea un robot o un personaje virtual, cambia entre distintas tareas

 

Un robot hoy puede usar un modelo de lenguaje para entender una orden compleja (“tráeme un refresco de la cocina”), pero sigue necesitando los sistemas de percepción y actuación anclados en el mundo físico para navegar, evitar obstáculos y manipular objetos.

Brooks afirmó en 1988 que “no hay magia en la IA”, sino un abordaje de problemas que antes no podíamos programar. Esta verdad persiste. La inteligencia que vemos hoy es una “vasta y compleja colección de procesos más simples”, que ahora incluyen transformadores, aprendizaje por refuerzo y arquitecturas de control robótico. Los desafíos siguen siendo los mismos: la integración a nivel de sistema, la flexibilidad y la robustez.

Quizá, cuando finalmente logremos una IA que no parezca ‘solo un programa’, no será porque hayamos encontrado una única clave mágica. Será porque, como predijo Brooks, habremos logrado desbloquear y orquestar pacientemente esos procesos uno por uno.

La IA seguirá su ciclo de grandes expectativas y ‘éxitos reales más modestos’, pero cada ciclo nos acerca más a comprender que la verdadera genialidad no está en un algoritmo, sino, como dijo Brooks, en la “maravillosa prueba del genio creativo de la evolución”, una evolución que ahora estamos acelerando y guiando nosotros.

 

La gran ironía es que estos modelos, como GPT-4 y sus sucesores, son, en esencia, la culminación de la IA incorpórea que Brooks criticaba

Comparte