Alberto Muñoz

Ciencia de datos vs. inteligencia artificial: Una frontera más política que técnica

Alberto Muñoz explica la diferencia entre el ‘data science’ y la IA, y cuáles son sus funciones.

En 1962, John Tukey propuso una nueva forma de pensar el análisis numérico: ya no como simple estadística descriptiva, sino como una práctica experimental para comprender el mundo. Así nacía el germen de lo que hoy, con cierto esnobismo, llamamos data science. Medio siglo después, los algoritmos de inteligencia artificial han capturado la imaginación pública y desplazado en popularidad a casi cualquier otra disciplina. Pero, ¿realmente entendemos la diferencia entre ambas?

La confusión entre ciencia de datos e inteligencia artificial no es nueva. De hecho, puede decirse que es útil. Es útil para vender ligeros y express programas académicos, para justificar reorganizaciones corporativas, para redefinir funciones en gobiernos tecnocráticos o para diseñar estrategias nacionales de IA, aunque estas muchas veces terminen financiando solamente visualizaciones de dashboards.

Ciencia del dato: una raíz experimental y crítica

Cuando hablamos de ciencia del dato, hablamos de una práctica cuyo eje está en el dato mismo como objeto de estudio. No se trata sólo de procesar datos, sino de entender su calidad, su origen, su sesgo, su relevancia. Es una ciencia del “cómo se mide” y del “cómo se representa”. Los pioneros de este campo fueron tan críticos como técnicos: se preguntaban si el número que teníamos frente a nosotros era representativo, si la media era útil o si una desviación estándar podía esconder más de lo que revelaba.

Hoy, buena parte de los científicos de datos se concentran en construir pipelines de procesamiento, en normalizar tablas, en entrenar modelos predictivos sencillos y en explicar a juntas directivas por qué la correlación no implica causalidad. La IA, en cambio, pareciera prometer algo más: modelos que aprenden solos, sistemas que razonan, agentes que toman decisiones sin supervisión.

¿Inteligencia de qué?

La inteligencia artificial es, en efecto, otra cosa. En sus raíces —desde Turing, pasando por McCarthy y Minsky— está la ambición de emular la cognición humana. Pero el giro actual, impulsado por grandes modelos de lenguaje y arquitecturas como transformers, nos ha alejado de esa pregunta fundacional y nos ha llevado hacia otra más pragmática: ¿qué tareas puede resolver una máquina con niveles humanos de desempeño?

Aquí es donde el debate se vuelve incómodo: porque muchas de esas tareas no requieren entender, sino parecer que se entiende. Los LLMs no “comprenden” en el sentido clásico de la psicología cognitiva, pero son capaces de redactar poemas, escribir código, sintetizar papers o sostener conversaciones durante horas. ¿Eso es inteligencia? La prensa y el mercado creen que sí. La filosofía aún no se decide.

Una frontera que se mueve

En la práctica, el límite entre la ciencia de datos y la IA se ha vuelto difuso. Un mismo modelo puede vivir en ambos mundos: un árbol de decisión puede ser considerado ciencia de datos en una consultora y parte de un sistema experto en una empresa de defensa: o ya más divertido, dentro del cómputo del Kinect frente al que hemos pasado horas bailando en navidad. Lo que en muchos casos separa a uno del otro no es la técnica, sino el discurso, la intención y el contexto.

Y aquí entra el debate mediático: ¿estamos hablando de IA para generar asombro o para resolver problemas? ¿Estamos promoviendo el análisis de datos para entender mejor la realidad o para justificar decisiones tomadas por otros? Estas preguntas no son meramente técnicas; son estratégicas.

El regreso de los agentes

Desde hace años he enseñado sobre sistemas de agentes y, particularmente, sobre sistemas multiagente, no sólo como modelo computacional, sino como una forma de entender interacciones distribuidas, dinámicas e inteligentes. Hoy, el auge reciente de los agentes autónomos, impulsado por la integración de IA generativa, vuelve a ponerlos en el centro de atención, como si redescubriéramos una herramienta largamente disponible pero aún inexplorada en muchos dominios.

Lo notable no es sólo su regreso, sino cómo se entrelazan con las demás capas: ciencia de datos, inteligencia artificial, GenAI y agentes (o multiagentes) ya no pueden tratarse como entidades independientes. Juntos, conforman nuevas configuraciones técnicas y estratégicas que redefinen mercados enteros. Lo que antes era prototipo académico (POC), hoy es solución en fase de adopción temprana (MVP). Y es justamente allí, entre la incertidumbre y la intuición, donde los early adopters logran capitalizar: amortiguan la fricción tecnológica, aprovechan la energía debida al optimismo, y ayudan a gener valor aun con soluciones parciales. Esa es la fuerza del momento actual.

Epílogo en tiempos de ruido

En este momento histórico, las diferencias entre ciencia de datos e inteligencia artificial no sólo son técnicas: son culturales, políticas y estratégicas. Ignorarlas nos condena a formar “usuarios expertos” de tecnologías que no comprenden, pero abrazarlas con sentido crítico puede ser la clave para formar la próxima generación de innovadores tecnológicos.

Después de todo, lo que está en juego no es un conjunto de herramientas, sino una forma de pensar el mundo.

COLUMNAS ANTERIORES

Un lunes tricolor en el mundo de los emprendimientos tecnológicos en IA
México frente a la seguridad técnica en IA: una estrategia desde la neutralidad activa

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.