Durante casi dos décadas, la programación fue vista como la llave maestra para acceder a un empleo global, bien remunerado y con la posibilidad de trabajar desde cualquier lugar. Sin embargo, el análisis de Rose Horowitch en The Atlantic[1] revela que, en USA., este camino ya muestra signos de agotamiento. La pregunta es: ¿esta tendencia impactará igual en Latinoamérica y en Europa?
Entre 2005 y 2023, tanto en Europa como en América Latina, la programación se asoció con los empleos del futuro, impulsada por la digitalización y el crecimiento del trabajo remoto. La pandemia consolidó la idea de que un programador podía trabajar para una empresa de Silicon Valley desde Berlín, Buenos Aires o Monterrey. Esto derivó en un auge de matrículas en carreras de Ciencias Computacionales, bootcamps, hackathones y certificaciones en línea.
Sin embargo, en el periodo 2024–2025, Estados Unidos experimenta el primer estancamiento serio en la matrícula de Ciencias Computacionales, con un incremento marginal de apenas 0,2 % anual. En Europa Occidental empieza a percibirse un patrón similar. El mercado está más saturado: países como Alemania, Reino Unido o Países Bajos, que históricamente recibían talento extranjero, han reducido contrataciones en puestos júnior. La automatización se acelera con herramientas como GitHub Copilot o ChatGPT, que reducen la necesidad de programadores inexpertos y privilegian perfiles con experiencia, especialización o capacidad de liderar proyectos. A esto se suma la competencia global: la facilidad para contratar programadores remotos de cualquier región presiona los salarios de los perfiles locales sin experiencia.
En China, las Zonas Económicas Especiales (ZEE) —inicialmente concebidas en los años ochenta como polos para atraer inversión extranjera en manufactura— evolucionaron en la década de 2000 y especialmente tras 2010 hacia verdaderos clústeres de innovación en software y servicios digitales. Ciudades como Shenzhen, Zhuhai o Xiamen, que comenzaron fabricando hardware, integraron gradualmente parques tecnológicos, incubadoras y políticas de incentivo fiscal orientadas a empresas de desarrollo de software, servicios en la nube y aplicaciones móviles. El apoyo estatal incluyó subsidios a I+D, priorización en licitaciones gubernamentales y una infraestructura de telecomunicaciones avanzada que facilitó la exportación de software y servicios IT. Esta combinación de políticas atrajo tanto a multinacionales como a startups chinas emergentes, generando un ecosistema donde la producción de software dejó de ser solo un soporte para la industria manufacturera y pasó a convertirse en un motor económico independiente, orientado tanto al mercado interno como a la exportación global.
En contraste, Latinoamérica presenta una dinámica distinta. La demanda externa se mantiene: muchas empresas europeas y norteamericanas siguen contratando talento latinoamericano por su menor costo y buena calidad técnica. La infraestructura tecnológica y la demanda local de desarrolladores todavía están en expansión; gobiernos y startups siguen impulsando la formación en programación. Esto genera mayor resiliencia para perfiles júnior, que aún encuentran oportunidades en pymes y proyectos de digitalización de sectores tradicionales como comercio, agroindustria o logística.
Pero existen riesgos. Una sobreoferta de egresados sin diversificación de habilidades podría replicar el fenómeno de saturación visto en Europa, aunque con algunos años de desfase. Además, la dependencia de la demanda externa implica vulnerabilidad: si USA y Europa reducen drásticamente la contratación remota, el impacto sobre salarios y oportunidades sería inmediato.
El trabajo remoto también sigue caminos divergentes. Pude constatar recientemente que Europa se está volviendo más híbrido y menos ubicuo; muchas empresas retornan parcialmente a la oficina, reduciendo el atractivo de contratar fuera de su zona horaria. En Latinoamérica, el corto diferencial de horario con USA y la ventaja de salarios competitivos siguen siendo fortalezas, pero no garantizan estabilidad si la demanda global se contrae.
En ambos contextos, la programación básica como habilidad aislada está perdiendo valor. La ventaja competitiva provendrá de combinarla con ciencia de datos y análisis crítico, inteligencia artificial aplicada, robótica y automatización de procesos, diseño de sistemas complejos e infraestructuras modulares y escalables, así como sistemas de telecomunicación y liderazgo técnico.
En Europa, el freno es más inmediato: mercados maduros, automatización acelerada y competencia global erosionan las oportunidades para programadores júnior. En Latinoamérica, el crecimiento todavía se apoya en la demanda externa y en la digitalización interna, pero el mismo patrón podría alcanzarla en pocos años.
Si las AI Factories de NVIDIA se concretan como está planteando el dinamismo de Alejandro Jiménez (Account Manager Enterprise en NVIDIA México)[3], las organizaciones deberán cumplir con exigentes requisitos técnicos y altamente diversificados. Esto incluye construir infraestructura modular a nivel de rack basada en la arquitectura (e.g. NVIDIA MGX), capaz de integrar y escalar cientos de GPUs, DPUs, CPUs, sistemas de almacenamiento y redes de alta velocidad. El diseño empresarial validado para AI Factories especifica una plataforma de cómputo acelerado construida sobre la generación de chips NVIDIA Blackwell, integrada con la pila completa de software NVIDIA AI Enterprise y un ecosistema de socios —incluyendo startups y universidades— para desplegar cargas de trabajo de IA generativa, IA de agentes (Agentic AI) y computación de alto rendimiento (HPC).
Para dimensionar una infraestructura inicial, se recomienda iniciar con al menos cuatro nodos HGX H200 o B200 (32 GPUs), lo que permite ejecutar la mayoría de modelos y frameworks con capacidad de escalar según las necesidades del negocio. Para visualización avanzada de simulaciones o gemelos digitales, puede considerarse un servidor OVX (configuraciones típicas de 8 o 4 L40s), donde 1 o 2 GPUs pueden dedicarse a entornos como NVIDIA Isaac y Omniverse. Para una estación de trabajo individual, una RTX 6000 Ada es viable, aunque un servidor colaborativo multiusuario ofrece mayor flexibilidad y escalabilidad. En el caso del uso de NVIDIA NIMs en Cosmos —por ejemplo, para generar datos sintéticos de entrenamiento de automatización con el uso de robots—, los requerimientos dependen del modelo, número de usuarios y latencia deseada, pero típicamente varían entre 1 y 8 GPUs H200 o H100.
La infraestructura eléctrica y de refrigeración deberá soportar consumos por rack que pueden alcanzar cientos de kilovatios —y, en el futuro, incluso escalar a megavatios por rack— para garantizar el máximo rendimiento y eficiencia energética. Asimismo, será imprescindible implementar redes de ultra baja latencia y gran ancho de banda, herramientas avanzadas de observabilidad, automatización basada en GitOps, canalizaciones y conectores de datos, mecanismos robustos de seguridad, sistemas de almacenamiento optimizados y plataformas de IA que permitan operaciones escalables de extremo a extremo. Para clústeres pequeños (hasta 128 GPUs) se sugiere la arquitectura de referencia BasePOD, mientras que para despliegues de mayor escala (más de 129 GPUs) se recomienda SuperPOD.
La paradoja que expone Horowitch se confirma: la revolución digital que convirtió a los programadores en la tropa de élite del siglo XXI está ahora reemplazando a sus soldados rasos. Creo que el reto para nuestras regiones no es formar nada más programadores, sino profesionales híbridos, estratégicos y adaptables al nuevo orden del trabajo en AI Factories, ya sea remoto/presencial y automatizado.
[1] https://www.theatlantic.com/economy/archive/2025/06/computer-science-bubble-ai/683242/