La semana pasada no solo estuvo marcada por el ruido mediático en torno a los lanzamientos de OpenAI, sino también por una ola de innovación transversal que tocó de lleno áreas como la sostenibilidad, la biología, la neurociencia y la computación cuántica. Más allá de cada anuncio en lo individual, lo relevante es la convergencia de tendencias que empiezan a delinear hacia dónde se está moviendo la frontera de la inteligencia artificial y de las ciencias aplicadas.
Un factor clave detrás de este cambio es la liberación de datos abiertos como catalizador de innovación. Iniciativas como el ODAC-25 de Meta y CuspAI abren la puerta a que investigadores de todo el mundo experimenten con técnicas de captura de carbono sin las tradicionales barreras de acceso a datos industriales. Lo mismo ocurre con el Open Molecular Crystals Dataset o con los modelos de NASA Harvest y AI2 Galileo: datos abiertos (datasets) que antes estaban reservados a unos cuantos laboratorios con presupuestos millonarios ahora se democratizan, habilitando a comunidades mucho más amplias. Estos datasets son fundamentales para la comunidad de desarrolladores de IA, ya que permiten entrenar modelos, contribuir a la solución de problemas complejos y, además, participar en competencias internacionales que fomentan la innovación y la colaboración, como las que organiza Kaggle (https://www.kaggle.com/learn).
En paralelo, observamos un fenómeno de escalamiento acompañado por la caída radical de barreras tecnológicas. Herramientas como ProteomeLM muestran que tareas que antes requerían semanas de cómputo en supercomputadores pueden resolverse en minutos con una sola unidad de GPUs, transformando lo prohibitivo en cotidiano. El mismo patrón se repite con el quantum sensor de 100 dólares, que traslada tecnologías de frontera desde los laboratorios de élite hacia cualquier universidad pequeña o incluso hacia makers independientes.
Otra tendencia decisiva es la hibridación de modalidades y dominios. Modelos como TRIBE, aplicado a neurociencia multimodal, o Galileo, que combina datos de radar, sensores ópticos y modelos climáticos, revelan que la IA más potente ya no es unimodal, sino multimodal, multimaterial y multiparadigma. Esto abre la puerta a modelar fenómenos complejos —el cerebro, la biosfera, los materiales— de manera más realista, integrando escalas y tipos de datos que antes permanecían aislados.
También estamos transitando de la mera observación al control activo. Perch 2.0, por ejemplo, no se limita a clasificar sonidos de aves, sino que se convierte en un sistema global de monitoreo en tiempo real de biodiversidad, capaz de habilitar intervenciones tempranas en conservación. Del mismo modo, FastCSP acelera el descubrimiento de materiales y fármacos, permitiendo diseñar lo que aún no existe en lugar de restringirse a describir lo que ya tenemos.
Todo esto refleja un cambio cultural profundo en la forma de innovar. Lo más significativo no es solo que estos modelos existan, sino que sean abiertos, documentados y listos para ser reutilizados por comunidades diversas. La innovación ya no se cocina en el aislamiento de una empresa cerrada, sino en un ecosistema distribuido que se retroalimenta de datos, modelos y hardware y sobre todo, software compartido.
Estos avances son importantes porque están transformando tres dimensiones fundamentales de la ciencia, el desarrollo tecnológico y la innovación. La primera es el acceso: pasamos de un ecosistema cerrado, restringido a unos cuantos actores privilegiados, a un entorno abierto en el que cualquier investigador, desarrollador o estudiante puede explorar, aprender y contribuir. La apertura de datos, modelos y herramientas marca un antes y un después, ya que democratiza el conocimiento y multiplica las posibilidades de innovación y el emprendimiento tecnológico.
La segunda dimensión es la de las escalas de tiempo y costo. Procesos que hace pocos años requerían semanas de cómputo en supercomputadores y presupuestos millonarios, hoy pueden ejecutarse en cuestión de minutos con infraestructuras accesibles. Esta reducción drástica en las barreras tecnológicas abre la puerta a que más equipos, incluso en universidades pequeñas o startups emergentes, puedan experimentar y generar avances con impacto global.
La tercera transformación está en la naturaleza misma de la ciencia. Dejamos atrás la visión unimodal y pasiva, basada únicamente en la observación, para dar paso a enfoques multimodales y activos, capaces de integrar distintas fuentes de datos y actuar sobre los fenómenos que estudian a través incluso de interactuar con los datos. La ciencia ya no se limita a describir el mundo: ahora busca intervenir, modelar y proponer soluciones que respondan a los grandes desafíos colectivos.
Lo que hasta hace poco era un privilegio de unos pocos laboratorios con presupuestos billonarios se está convirtiendo en una caja de herramientas global, disponible para investigadores consolidados, para startups en sus primeras etapas e incluso para estudiantes curiosos que quieren aprender y aportar. Ese, quizá, sea el cambio más revolucionario: la innovación ya no es patrimonio de unos cuantos, sino una oportunidad compartida, donde el talento y la creatividad de comunidades diversas pueden marcar la diferencia.
También la semana pasada tuve el honor de ser invitado a un evento en la American Chamber of Commerce of Nuevo León (AmCham) gracias a mis amigos Marianela Santos, Aníbal Reyes y Franz Berchelmann quienes están impulsando un gran proyecto de infraestructura para una AI Factory. Fue una excelente oportunidad para reflexionar sobre todos estos avances concretos de la inteligencia artificial y su papel preponderante en la relación bilateral México-USA. Durante el evento compartí la visión de que la IA es el nuevo TLCAN y, más recientemente, el T-MEC (USMCA en inglés) pues representa un cambio tan transformador como lo han sido dichos tratados, justamente por su capacidad de reconfigurar economías y sociedades, como es el caso de lo que - indudablemente - estamos ahora viviendo.