En medio de una creciente carrera geopolítica por el liderazgo en inteligencia artificial (IA), se ha abierto una brecha preocupante: la posible subinversión global en seguridad técnica. Los incentivos para desplegar modelos de IA cada vez más potentes y competitivos están superando los esfuerzos por garantizar que estos sistemas sean robustos, auditables y alineados con valores humanos [1].
En este contexto, países como México enfrentan una disyuntiva crucial. Aunque no participan masivamente en la carrera de la creación de los modelos fundacionales, sí estamos expuestos a sus efectos. Pero esta aparente desventaja puede convertirse en una oportunidad estratégica. México tiene el potencial de asumir una postura de “neutralidad activa”, similar a la que han adoptado históricamente países como Suiza o los nórdicos en otros contextos tecnológicos.
Esta posición no busca competir por supremacía en el desarrollo de IA general, sino convertirse en un nodo de credibilidad responsable y sobre todo, técnica. Al centrar nuestra estrategia en la evaluación, verificación y auditoría de modelos —y no en su producción a gran escala— México puede ofrecer algo que las grandes potencias tecnológicas no tienen: confianza en condiciones reales de diversidad natural y diversidad contextual. Para lograrlo, el país debe continuar la construcción de capacidades internas robustas en investigación y pruebas de seguridad técnica. Esto implica invertir en centros independientes, respaldados por instituciones públicas y privadas con líneas especializadas en robustez, interpretabilidad, alineación y evaluación de riesgos.
Estos centros no solo abordarían los aspectos técnicos de la seguridad de la inteligencia artificial, sino que también servirían como espacios de formación interdisciplinaria en red teaming (equipos de ataque ético que intentan vulnerar sistemas para identificar fallos antes de que lo hagan actores maliciosos), simulaciones adversariales (entornos controlados donde se estudia cómo la IA responde ante entradas manipuladas o condiciones hostiles), y auditorías con explicabilidad (procesos de revisión técnica que no solo evalúan el comportamiento de un modelo de IA, sino que también exigen que dicho comportamiento sea comprensible y justificable).
Además, es indispensable que México apueste por una diplomacia técnica activa. En México hemos trabajado en IA desde los 80s del siglo pasado y tenemos un grupo de expertos en IA con la posibilidad de alzar la voz en foros multilaterales como la ONU, la OCDE, la UNESCO o la CELAC, abogando por estándares abiertos, metodologías de evaluación de IA y marcos cooperativos de pruebas robustas y confiables.
México debe presentar propuestas que atiendan directamente a contextos del sur global, como la creación de registros públicos de decisiones automatizadas en servicios públicos o la supervisión independiente de sistemas de clasificación y recomendación que afecten la vida cotidiana de millones.
La educación superior es otro frente decisivo. El país debe integrar con urgencia contenidos sobre seguridad, regulación y responsabilidad de la IA en carreras de ingeniería, derecho, política pública y ciencias sociales. Formar talento técnico con sensibilidad institucional y crítica es tan importante como dominar los aspectos algorítmicos. Se requiere una generación capaz de participar tanto en el diseño como en la evaluación de sistemas, y que pueda operar en entornos internacionales de gobernanza tecnológica.
Un punto especialmente prometedor es la construcción de alianzas estratégicas. México puede y debe vincularse con todas las naciones preponderantes, incluido el sur global —como China, India, Sudáfrica o Brasil— para intercambiar metodologías y buenas prácticas adaptadas a entornos similares.
En el debate sobre el futuro del trabajo y la inteligencia artificial generativa, rara vez se reconoce que las mujeres, particularmente en su rol protagónico en la educación básica de sus hijos, constituyen el primer y más duradero vector de formación de criterio, pensamiento lógico y capacidades sociales. En contextos como México, donde la ruralidad ha cedido lugar a una creciente urbanización, el papel de las mujeres como agentes educativas en el hogar cobra una nueva centralidad: son ellas quienes mayor tiempo dedican a la crianza, y por tanto, quienes incuban en la infancia las competencias que definirán cómo una generación entera se relaciona con la tecnología. Ignorar este hecho en el diseño de políticas de inclusión tecnológica es, además de miope, contraproducente. Atender a las mujeres no es solo una cuestión de equidad; es reconocer que ahí, en ese espacio cotidiano e infravalorado, se juega una parte crucial de la alfabetización digital y del pensamiento crítico que el país necesitará para no ser solo usuario, sino creador y regulador de tecnologías con justicia y autonomía.
El país debe reconocer que la seguridad técnica no es solo un problema ingenieril, sino un problema político. Requiere voluntad estatal, incentivos regulatorios y colaboración público-privada. La oportunidad está en convertir a México en un espacio de validación ética y técnica de IA, donde empresas globales puedan someter sus modelos a pruebas contextuales, y donde la ciudadanía tenga mecanismos de defensa frente a los sistemas automatizados que puedan afectar sus derechos.
México no necesita competir por ser el país con más modelos fundacionales ni por tener los mayores laboratorios de entrenamiento computacional. Su verdadero capital estratégico reside en su diversidad cultural, su experiencia institucional en regulación tecnológica, su infraestructura académica y su ubicación geopolítica intermedia. Apostar por la seguridad técnica en IA es apostar por un rol internacional que combine soberanía digital, cooperación científica y defensa de los derechos humanos. Frente a un mundo en el que los riesgos de IA avanzan más rápido que sus salvaguardas, México puede ofrecer una contribución crucial: asegurar que los modelos funcionen de forma segura, justa y transparente, especialmente para aquellos que históricamente han quedado fuera de la mesa de diseño.
[1] Bucknall et al. (2025). In Which Areas of Technical AI Safety Could Geopolitical Rivals Cooperate? arXiv preprint arXiv:2504.12914. https://arxiv.org/abs/2504.12914