La revista profesional sobre tecnología y transformación digital

Tribuna

Carlos Lopez

Carlos López

Profesor Inteligencia Artificial. Decano ESIC Business & Marketing School

El pecado del exponencialismo: cuando la física frena a la ficción

Para entender por qué el exponencialismo suele fallar, conviene detenerse en una pregunta previa: ¿por qué la Ley de Moore funcionó durante tanto tiempo?

Durante los últimos sesenta años, la humanidad ha vivido una anomalía histórica que, con el tiempo, hemos confundido con la normalidad. Hemos sido testigos del crecimiento tecnológico más significativo y sostenido de la era moderna: la era del silicio. Generaciones enteras han crecido bajo la premisa —casi incuestionada— de que la tecnología mejora de forma constante, rápida y predecible. La expresión más conocida de esta idea es la Ley de Moore: la observación de que la capacidad de los microchips se duplica aproximadamente cada dos años, reduciendo costes y tamaño de manera sostenida.

Este fenómeno no solo transformó la informática. También reconfiguró nuestra psicología colectiva. Nos entrenó para creer que el progreso tecnológico es, por defecto, exponencial y acumulativo. Que la curva del futuro siempre apunta hacia arriba y, además, lo hace cada vez más deprisa.

Inversores, emprendedores, tecnólogos y el público en general han interiorizado esta lógica hasta convertirla en una expectativa generalizada: si algo es ‘tecnológico’, debería mejorar como lo hicieron los ordenadores. Esta lógica se aplica habitualmente a las proyecciones sobre el vehículo autónomo, la Inteligencia Artificial general (AGI), la superinteligencia, los robots domésticos o la computación cuántica, a pesar de que cada uno de estos ámbitos enfrenta límites físicos y conceptuales radicalmente distintos.

Aquí es donde aparece lo que podríamos llamar el pecado del exponencialismo: la tendencia a extrapolar curvas exponenciales allí donde no existe justificación física, química o energética para que lo hagan. Confundimos una excepción histórica con una ley universal.

Para entender por qué el exponencialismo suele fallar, conviene detenerse en una pregunta previa: ¿por qué la Ley de Moore funcionó durante tanto tiempo? La respuesta no es mágica ni inevitable. Tiene que ver con el aprovechamiento sistemático de una enorme ineficiencia inicial.

En los primeros ordenadores, las corrientes eléctricas empleadas para representar información digital —un ‘1’ o un ‘0’— eran desproporcionadamente grandes respecto a lo que la física fundamental requería. Había un exceso de energía brutal.

Los ingenieros trabajaban con márgenes inmensos. La combinación de sobredimensionamiento inicial y una curva de aprendizaje muy favorable en la fabricación permitió un escalado sostenido de tamaño, voltaje y consumo sin violar los requisitos físicos de operación.

Durante décadas fue posible dividir la corriente por dos, luego por dos otra vez, y repetir el proceso sin chocar con límites fundamentales. La Ley de Moore fue posible porque empezamos muy lejos de los límites físicos. Fue, en sentido estricto, una carrera cuesta abajo durante décadas.

El pecado del exponencialismo aparece cuando intentamos trasladar esa lógica del mundo de los bits —abstracto, discreto, informacional— al mundo de los átomos, gobernado por restricciones materiales ineludibles.

La información es etérea, la materia es obstinada. Un ejemplo paradigmático de este choque lo encontramos en la industria de los vehículos eléctricos. Durante años se prometió que las baterías seguirían la misma trayectoria que los microchips: el doble de capacidad, la mitad de precio, cada pocos años. Pero la química no concede indulgencias.

Mientras que en un chip podíamos reducir el tamaño de los transistores, no podemos reducir el tamaño de un átomo de litio. Una batería no gestiona lógica; gestiona iones físicos que se desplazan en un espacio confinado. Su rendimiento está limitado por densidades energéticas, reacciones químicas y estabilidad térmica. Por eso sus mejoras son incrementales, del orden del 5–8 % anual, no exponenciales. Esperar que una batería evolucione como un smartphone es ignorar la tabla periódica.

Incluso en la IA —una tecnología que, en principio, habita cómodamente en el silicio— el exponencialismo empieza a mostrar signos de agotamiento. La Ley de Moore trataba, en esencia, de hacer más con menos. La era actual de la IA, especialmente la IA generativa, se caracteriza por lo contrario: hacer más con mucho más. Los avances recientes no se deben a una eficiencia radicalmente superior, sino al escalado masivo de cómputo, datos y energía.

Para obtener mejoras marginales en capacidad, necesitamos cantidades desproporcionadas de recursos: más datos, más parámetros, más centros de datos. El cuello de botella ya no es solo el chip, sino también la red eléctrica, la refrigeración y el acceso a energía estable y abundante, junto con limitaciones arquitectónicas más profundas, como el conocido cuello de botella de Von Neumann: la velocidad de transferencia de datos entre la memoria y las unidades de cómputo —hoy amplificada en la comunicación entre GPU y memoria— que impone fricciones crecientes al escalado. La fe en la escalabilidad infinita —la idea de que el progreso computacional vendría dado casi automáticamente por el paso del tiempo— ha terminado.

El exponencialismo es, en el fondo, un sesgo de disponibilidad. Juzgamos el futuro de todas las tecnologías basándonos en el éxito extraordinario —y excepcional— de los semiconductores.

La Ley de Moore no fue la regla del universo, sino una feliz anomalía histórica. A medida que nos adentramos en dominios donde es necesario mover átomos, almacenar energía, transformar materiales o interactuar con sistemas biológicos, las curvas de crecimiento exponencial se desvanecen. En su lugar reaparece la ingeniería de siempre: lenta, costosa, incremental.

Sin duda alguna, seguiremos viendo mejoras en la IA y en otras áreas tecnológicas. Pero no vendrán de una prolongación automática de las curvas pasadas, sino de la aplicación deliberada del ingenio humano. Los avances reales surgirán de nuevas arquitecturas computacionales, de enfoques algorítmicos más eficientes, de una mejor integración entre hardware y software, y de una comprensión más profunda de los límites —y oportunidades— que impone la física. El progreso futuro será menos espectacular en apariencia, pero más sustantivo en su impacto: menos basado en escalar sin fricción y más en diseñar con intención.

El futuro seguirá avanzando, sin duda. Pero comprender sus límites es tan importante como celebrar sus posibilidades. Para navegarlo con inteligencia —humana, no artificial— debemos abandonar la expectativa de milagros exponenciales allí donde la física solo permite avances paso a paso.

Comparte