Alberto Muñoz

Lo que no es IA, aunque lo parezca, aunque la vendan, aunque la quieran regular...

Alberto Muñoz reflexiona alrededor del uso de la inteligencia artificial, el conocimiento y la utilidad de esta herramienta.

En mi columna anterior argumenté que la frontera entre Ciencia de Datos e Inteligencia Artificial (IA) es, en muchos casos, más política que técnica. Para mi sorpresa, el texto provocó no solo debate, sino una buena dosis de irritación. Y eso, debo decir, es una gran noticia. Cuando una palabra como “inteligencia artificial” incomoda, lo que está en juego no es simplemente su definición, sino algo más profundo: la forma en que distribuimos poder, legitimidad y recursos alrededor del conocimiento.

¿Por qué molesta tanto? En parte, por lo que la psicología llama disonancia cognitiva bidimensional. La primera dimensión ocurre cuando una persona encuentra una contradicción entre lo que cree saber —por ejemplo, que la IA es una tecnología sofisticada y disruptiva— y lo que observa en la realidad: presentaciones que etiquetan como “inteligencia artificial” a sistemas de reglas simples, hojas de cálculo automatizadas o regresiones con un buen gráfico. Esa tensión puede tolerarse en una charla informal o una conferencia, pero se vuelve irritante cuando afecta decisiones reales: qué materias académicas deben involucrar IA, qué proyectos de IA deben recibir apoyo, o qué profesores son considerados expertos en IA.

La segunda dimensión de esta disonancia es identitaria: se activa cuando se percibe que el propio campo de conocimiento, trayectoria profesional o experiencia docente se ve desplazada o deslegitimada por narrativas que posicionan la IA como el nuevo centro del saber legítimo. No es solo que alguien vea mal aplicada la etiqueta de IA, sino que, al hacerlo, se cuestione implícitamente su propia relevancia. Esta sensación se intensifica cuando términos como “obsolescencia”, “automatización” o “reentrenamiento” empiezan a formar parte del discurso cotidiano, sugiriendo que quienes no se alineen a la ola de la IA serán descartables. Dicho de otra forma: la irritación no proviene únicamente del mal uso del término, sino del lugar simbólico que se asigna a quienes no lo usan. Profesores que han trabajado décadas con métodos sólidos y relevantes pueden sentirse arrinconados por un discurso que privilegia lo nuevo, lo técnico y lo automatizable, aunque no siempre con profundidad. Esa herida epistémica –la idea de que el saber acumulado puede ser eclipsado por herramientas sin contexto– alimenta una tensión que es tan política como emocional.

A esta disonancia se le suele sumar otra dimensión menos comentada pero igual de crítica: lo que en psicología cognitiva se conoce como distorsión cognitiva. Se trata de mecanismos mentales —a menudo inconscientes— que simplifican la realidad para reducir la incomodidad que esta produce. Uno de los más comunes en estos debates es el pensamiento polarizado: si no estás “haciendo IA”, entonces estás atrasado, fuera de tendencia, o simplemente “no entiendes el futuro”. Esta lógica binaria impide ver los matices. Otra distorsión frecuente es la sobregeneralización, que lleva a suponer que toda aplicación de IA es automáticamente mejor, más moderna o más eficiente, lo cual, como sabemos, dista mucho de ser cierto. Estas distorsiones no solo afectan la conversación técnica, sino que pueden conducir a decisiones apresuradas y políticas públicas o académicas mal fundamentadas.

Esto se vuelve especialmente complejo cuando las decisiones no las toman expertos técnicos, sino comités con buenas intenciones pero poca formación en IA. Preocupa, por ejemplo, cuando en contextos académicos se nombra a grupos de docentes sin experiencia en la materia para decidir qué puede y qué no puede enseñarse bajo la etiqueta de “IA”. No me refiero aquí a los temas éticos ni regulatorios —que merecen otro debate—, sino al día a día en instituciones, donde se decide si un curso necesita rediseñarse, si un profesor está actualizado, o si un proyecto es “pertinente” solo porque incluye o no incluye términos como machine learning o redes neuronales.

Estas situaciones son más comunes de lo que parecen. A veces, un curso de álgebra lineal con aplicaciones a reducción de dimensiones puede estar mucho más cerca de una conversación rigurosa sobre IA que una materia que usa sin profundidad una herramienta generativa de moda. De igual manera, en programación básica puede explorarse el uso de datos reales para generar modelos predictivos sencillos, abriendo la puerta al aprendizaje automático de forma natural. En cambio, exigir que todos los cursos “incluyan IA” como un requisito formal puede llevarnos a soluciones artificiales, poco pedagógicas y —peor aún— contraproducentes.

¿Qué hacer entonces? Propongo algunas estrategias prácticas para abordar esta frontera sin caer en la rigidez ni en la moda. Primero, cada comunidad académica podría redactar un glosario vivo, breve y contextual, donde se defina de manera compartida qué se entiende por Ciencia de Datos, Aprendizaje Automático, IA Generativa, etc. No para publicar, sino para alinear conversaciones internas. Es más importante tener claridad local que una definición universal. Segundo, en lugar de aplicar criterios binarios (“¿lleva IA o no?”), conviene evaluar propuestas de manera más matizada. Por ejemplo, preguntarse: ¿el curso utiliza datos reales? ¿permite hacer predicciones útiles? ¿ajusta parámetros a partir de resultados? ¿se conecta con técnicas actuales aunque no las implemente directamente? Estas preguntas son mucho más productivas que decidir todo a partir de una etiqueta. Tercero, propongo fomentar lo que llamo micro incursiones de IA. No todos los cursos tienen que transformarse en espacios de innovación radical, pero muchos pueden incorporar pequeñas actividades donde el estudiantado experimente con herramientas de IA relevantes para su campo. En un curso de comunicación, por ejemplo, se puede prototipar un mensaje con GPT. En una clase de química ambiental, se puede entrenar un clasificador básico de muestras. En historia del arte, se puede analizar cómo una red neuronal interpreta estilos pictóricos. Estas incursiones deben ser opcionales, integradas con sentido y, sobre todo, tratadas con honestidad técnica. Y cuarto, es urgente que las decisiones sobre integración de IA no se tomen de manera vertical ni arbitraria. Sugiero formar comités mixtos, donde haya al menos una persona con formación sólida en inteligencia artificial y otra con experiencia pedagógica o disciplinar. Su función no debe ser la de un filtro censor, sino la de un equipo de acompañamiento estratégico, capaz de identificar oportunidades, ofrecer ejemplos y asesorar con criterio.

La pregunta de fondo no es si estamos o no “haciendo IA verdadera”, sino si estamos construyendo conocimiento relevante, riguroso y útil en un mundo donde la IA es cada vez más ubicua. No todo lo valioso es IA. Pero casi todo lo valioso hoy puede dialogar con ella. Lo importante no es quién lleva la etiqueta, sino quién abre la conversación dando el espacio para que todos participemos.

COLUMNAS ANTERIORES

Ciencia de datos vs. inteligencia artificial: Una frontera más política que técnica
Un lunes tricolor en el mundo de los emprendimientos tecnológicos en IA

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.