OpenAI estaba trabajando en un modelo que completara texto parecido al que ahora tienes en tu celular. Un sistema que, al recibir una frase incompleta, pudiera predecir cuál era la siguiente palabra. Una tarea técnica, basada en estadísticas.
La idea era simple: alimentar al modelo con grandes cantidades de texto libros, artículos, sitios web para que pudiera imitar el lenguaje humano. No se trataba de construir una mente artificial ni de resolver dilemas morales. Mucho menos de generar pensamiento. Era un experimento de predicción.
Entonces, alguien del equipo una pregunta sin contexto:
“¿Cuál es el sentido de la vida?”
Y el modelo respondió.
No fue una respuesta brillante, ni profundamente filosófica. Pero tenía coherencia. Tenía tono. Transmitía una cierta empatía, una intención que no parecía automática. Y, sobre todo, no era una repetición extraída de ningún lado. No era una cita. Era una construcción nueva.
No era perfecta. Pero tampoco era un error. Era una respuesta. Y eso fue suficiente para que todos en la sala comprendieran que lo que habían construido ya no era solo una herramienta estadística.
Nadie lo entendía, pero que sabían que podía cambiar el mundo.
No solo predecía palabras. Generaba ideas, conectaba conceptos, imitaba el razonamiento humano. No porque pensaba, sino porque parecía pensar. Esa diferencia parecer sutil, pero en realidad el punto de inflexión.
Sam Altman, CEO de OpenAI, diría más tarde que la gran sorpresa no fue que el modelo funcionara, sino que comenzara a hacer cosas para las cuales no fue entrenado.
Empezó a escribir código, a traducir ideas abstractas, a resolver tareas complejas, incluso a hacer chistes con estructura lógica. El modelo no solo respondía. Empezaba a crear.
Y lo más inquietante era que nadie sabía exactamente por qué.
Se entendía el mecanismo general: una cantidad inmensa de texto, millones de ejemplos, un sistema que ajusta miles de millones de parámetros para reducir errores al predecir la siguiente palabra. Pero el proceso que ocurre entre esa entrada de datos y la generación de una respuesta sigue siendo, hasta hoy, una caja negra. No entendemos aún como “piensa”.
A diferencia del software tradicional, un modelo como ChatGPT no se programa línea por línea no se puede editar solo con código. Se entrena. Se educa. Primero se lo alimenta con lenguaje de todo tipo.
Después, entra en juego una etapa crítica y que muy pocas personas conoce, entrenadores humanos especializados platican con el modelo, eligen entre distintas respuestas, corrigen errores, premian el tono adecuado, penalizan lo inexacto o desinformado.
No es muy distinto a lo que hacemos cuando enseñamos a un niño a expresarse bien.
Pero a diferencia de un niño, el criterio que desarrolla el modelo no es lógico ni transparente. Es estadístico, emergente, opaco. No puede explicarse. Solo puede observarse.
Eso es lo que hace tan difícil definir qué tipo de inteligencia hemos creado.
Porque no razona, como lo mencioné en este texto, pero actúa como si lo hiciera. No entiende, pero simula comprensión. Es un espejo entrenado con nuestras propias palabras. Y, sin embargo, nos sorprende.
Recientemente, Meta adquirió una startup china fundada por un joven de apenas 22 años que propone un cambio radical. En lugar de entrenar modelos para imitar el lenguaje humano, su idea es enseñar a las máquinas a razonar hacia objetivos. No responder por probabilidad, sino construir pensamiento desde una intención.
Si eso funciona, estaríamos frente a un cambio de paradigma. Una inteligencia artificial no solo más precisa, sino más estratégica. Más adaptable. Más autónoma. Y, en muchos sentidos, más difícil de controlar.
Lo más interesante es que esta evolución no está surgiendo dentro de las grandes corporaciones. Está emergiendo en los márgenes. En pequeños equipos. En laboratorios que no tienen que cargar con el peso de las estructuras tradicionales. Desde ahí están naciendo las ideas más disruptivas.
Y eso nos lleva a una pregunta más grande: ¿quién está educando a estas inteligencias? Porque si todavía no entendemos del todo cómo piensan, deberíamos ser más conscientes de qué les estamos enseñando. Y, sobre todo, de quién está decidiendo qué se considera una buena respuesta.
La tecnología ya está aquí. Lo que falta es conciencia.
El futuro de la inteligencia artificial no lo va a definir cuántos parámetros tiene un modelo, ni qué tan rápido responde. Lo van a definir las conversaciones que tengamos con estas máquinas. Y, sobre todo, las decisiones que tomemos como sociedad sobre cómo queremos que piensen.