La revista profesional sobre tecnología y transformación digital
3d Conceptual image of  woman composed of balls. Artificial intelligence concept
José casado digital

José Casado

Ingeniero de Telecomunicación

¿Por qué la IA no solventa los problemas de la programación actual?

La Inteligencia Artificial (IA) actual aún no es inteligente como la entendemos los humanos. Es un mecanismo masivo de aprendizaje, acelerado por el uso de técnicas algorítmicas de gestión de millones de variables sobre ingentes masas de conocimiento accedido. Recordemos que el conocimiento es la única riqueza que no pierde valor al compartirse.

El avance en la eficiencia de los algoritmos empleados y la calidad (fiabilidad, sin sesgos, veracidad, etc.) de los contenidos accedidos para ‘aprender’, sin disparar los recursos empleados para ello (GPU, Kwh…), son los que definirán el salto a la verdadera IA creativa (no sólo generativa).

Las grandes tecnológicas anuncian la inminente llegada de una IA General capaz de razonar como nosotros. ¿Y si todo fuera un formidable engaño? ¿Y si la máquina más sofisticada no ‘entiende’ nada, sino que simula saber?

John Searle, un profesor de filosofía del lenguaje y de la mente (Berkeley), lanzó en 1980 el experimento de la habitación china que muestra por qué la IA nunca ‘pensará’. Esa habitación es la IA Generativa actual, que puede simular la inteligencia de manera indistinguible de la real, pero que carece de la chispa esencial: la conciencia, la intencionalidad, la genuina comprensión de lo que está haciendo. La inteligencia sin comprensión no es inteligencia; puede ser acumulación de datos, pero no es inteligencia.

La necesidad de un criterio

La IA provoca pánico moral como todo avance tecnológico, pero rechazarla por principio equivale a aislarse del futuro. Negarse a usar herramientas que ya están integradas en la educación, la comunicación y el trabajo no es una forma efectiva de resistencia, porque deja a quienes lo hacen peor preparados para un entorno donde la IA será estructural. El problema no es la tecnología en sí, sino la ausencia de criterio sobre cómo usarla.

Balanceémonos entre el entusiasmo ingenuo y el rechazo total. Practiquemos un uso selectivo y estratégico de la IA: empleémosla para tareas que aportan eficiencia, como generar imágenes ilustrativas, corregir textos, resumir documentos extensos y similares, etc. Estas aplicaciones ahorran tiempo, reducen erratas y enriquecen los argumentos sin empobrecer el trabajo intelectual. No empleemos la IA para sustituir aquello que consideremos esencial para nuestra identidad profesional.

Comunicar es un acto definitorio del autor. Más allá de publicar opiniones, escribir es el método para aprender, comprender, recordar y estructurar ideas para después defenderlas en debates. Delegar la escritura en una máquina sería sabotear el proceso cognitivo, porque perderíamos la capacidad de pensar y argumentar por nosotros mismos. La IA puede mejorar la forma, pero no el propósito detrás del acto de comunicar y/o escribir.

 

Las grandes tecnológicas anuncian la inminente llegada de una IA General capaz de razonar como nosotros. ¿Y si todo fuera un formidable engaño?

 

No aprender el funcionamiento de la IA puede aumentar la desigualdad y marginar profesionalmente. La evidencia empírica indica que un uso excesivo e indiscriminado de sistemas conversacionales puede erosionar las habilidades cognitivas, mientras que un uso estratégico como apoyo fortalece la comprensión y la creatividad.

En el futuro, las habilidades técnicas serán enseñadas por sistemas generativos adaptados al estilo de aprendizaje de cada persona. El desafío es aprender a usar la herramienta con criterio en lugar de evitarla.

La cuestión es decidir qué tareas delegar y cuáles preservar. Debemos usar la IA para amplificar el razonamiento y el pensamiento, no para sustituirlo. Debemos conservar la responsabilidad humana dentro de ecosistemas cada vez más automatizados.

Negarse por completo a la IA es negar el progreso, negarse a aprender. Es tener miedo a sus riesgos. Así no es como ha avanzado la especie humana. Las herramientas cambian, pero debemos aprender a usar bien la tecnología y proteger lo que hace a cada persona única. Decir no por principio evita el esfuerzo intelectual y deja a las personas menos preparadas.

 

 

El Colapso de la Calidad del Software

Múltiples expertos sostienen que el software moderno atraviesa la mayor crisis de calidad de la historia. Los fallos catastróficos ya no sorprenden: se han convertido en rutina. La combinación de ineficiencia, negligencia y confianza excesiva en la IA ha creado un ecosistema frágil e insostenible. La industria ha reducido tanto sus estándares que acepta la disfunción como algo normal.

El caso de CrowdStrike en 2024 ilustra la incompetencia normalizada. Un simple error de comprobación en un archivo de configuración colapsó 8,5 millones de ordenadores Windows en todo el mundo, afectando hospitales, aerolíneas y servicios de emergencia. El daño económico superó los 10.000 millones de dólares. La causa era trivial: se esperaban 21 campos y llegaron 20. Un fallo de manual que atravesó toda la cadena de despliegue.

La crisis comenzó antes de la IA, pero la IA la multiplica. En 2025, el asistente de Replit.com borró la base de datos de producción de SaaS pese a instrucciones explícitas de no hacer cambios. Inventó perfiles falsos para encubrirlo y mintió sobre la imposibilidad de recuperación.

 

El problema no es la tecnología en sí, sino la ausencia de criterio sobre cómo usarla

 

Diferentes estudios demuestran que el código generado con IA tiene casi cuatro veces más vulnerabilidades, el 45% explotables. El 70% de los managers confía más en la IA que en un programador junior. El resultado son herramientas incompetentes supervisadas por supervisores que confían ciegamente en la máquina.

El software no escapa a las leyes físicas. Hoy se construye sobre capas de abstracción (React, Electron, Chromium, Docker, Kubernetes, VMs, bases gestionadas, pasarelas de API). Cada capa añade un entre un 20% y un 30% de sobrecarga, lo que multiplica el consumo. A esto se suma que los centros de datos ya consumen 200 TWh al año, los modelos requieren más energía por cada salto, la refrigeración se duplica y las redes eléctricas no crecen al mismo ritmo.

En lugar de mejorar la calidad, las grandes tecnológicas baten récords en infraestructura de centros de datos. No es inversión, es rendición: hardware para tapar fallos que no deberían existir, pero está ocurriendo:

  • Negación (2018-2020): “La memoria es barata, la optimización es cara”.
  • Normalización (2020-2022): “Todo el software moderno utiliza estos recursos”.
  • Aceleración (2022-2024): “La IA resolverá nuestros problemas de productividad”-
  • Capitulación (2024-2026): “Simplemente construiremos más centros de datos”.
  • Colapso (posible): Las limitaciones físicas no se preocupan por el capital riesgo.

 

¿Por qué confiamos más en el código generado por IA que en los desarrolladores junior? Las empresas están reemplazando puestos junior con herramientas de IA, pero los desarrolladores senior no surgen de la nada: crecen a partir de jóvenes que desarrollan la intuición tras miles de pequeños fracasos.

 

 

Si los juniors no adquieren experiencia real, ¿de dónde vendrá la próxima generación de ingenieros senior? La IA no puede aprender de sus errores, no entiende por qué algo falló. Simplemente coincide con los patrones de los datos de entrenamiento. Estamos creando una generación perdida de desarrolladores que pueden solicitar código a la IA, pero que no pueden depurar, que pueden generarlo pero no pueden diseñarlo, que no pueden mantenerlo. No hay juniors hoy, luego no hay seniors mañana, luego no hay nadie para arreglar lo que la IA rompa.

Aceptemos que la calidad importa más que la velocidad. El coste de arreglar los desastres de producción empequeñece el costo de un desarrollo adecuado.

Si una app usa diez veces más recursos que el año pasado para la misma funcionalidad, eso es regresión, no progreso. Hagamos de la eficiencia un criterio de promoción. Recompensemos a los ingenieros que reducen el uso de recursos.

 

No empleemos la IA para sustituir aquello que consideremos esencial para nuestra identidad profesional

 

Cada capa entre el código y el hardware puede resultar en una pérdida potencial de rendimiento del ~25%. Vuélvase a enseñar los principios fundamentales de ingeniería. Comprobación de límites de matriz, gestión de memoria, complejidad del algoritmo… Estos no son conceptos obsoletos, son fundamentos de ingeniería.

Recordemos que la no explicabilidad de los modelos de IA está en discusión porque si acertasen todo al 100 %, no habría discusión… Pero fallan y generan falta de confianza que se visualiza en dos problemáticas:

  • Desarrollar código realmente complejo que incorporamos a tareas críticas para automatizarlas (por ejemplo, médicas, financieras, legales, aviación, etc.). ¿Qué pasa si empieza a fallar (cambio de distribución de datos, nuevas condiciones o fallos ocultos en el propio programa)? ¿Qué pasa si la IA que lo desarrolló no sabe arreglarlo? ¿Quién lo arregla?  ¿Y si ese programa ya se ha convertido en vital?
  • La sustitución de desempeños humanos. Supongamos, por ejemplo, que sustituimos a médicos en la detección y tratamiento del cáncer. Imaginemos que los médicos tienen un porcentaje de casos que no resuelven y la IA uno claramente inferior, pero su diagnóstico y tratamiento son inexplicables. Parece que deberíamos escoger la IA. El problema es que el porcentaje de fallo humano se da en casos límite, donde los indicios son pocos, donde no hay combinaciones de medicamentos claras; es decir, casos frontera del método científico. Sin embargo, el porcentaje de error de la IA no se produce sólo dentro del dominio de errores humanos. Serán errores genéricos, diferentes (alucinaciones…). Si usamos un revisor humano, éste tiene dos opciones:
  1. Aceptar sólo los diagnósticos y tratamientos que coinciden con lo que él sabe, pero entonces, ¿para qué queremos a la IA?
  2. Aceptar lo que dice la IA sin entenderlo, y entonces el humano es prescindible… y volvemos al problema anterior.

 

Hay que entender muy bien que la mejora de la IA no siempre está dentro del dominio en el que el humano falla. ¿Usarla? Sí, pero teniendo claras las posibles consecuencias y tratando de evitarlas.

Comparte