Fenómenos Digitales

Cuando la IA aprende de sí misma: el peligro del “model collapse”

En términos simples, si las IA se entrenan con contenido de la web y la web está llena de contenido producido por otras IA, llega un momento en que los modelos aprenden de su propio reflejo.

La inteligencia artificial solo tendrá futuro si defendemos la autenticidad y origen humano del conocimiento, contraste de ideas y opiniones, de lo contrario, los modelos acabarán aprendiendo de su propio output y el mundo perderá, contraste, verdad y confianza… Manuel Trevilla.

En pocos años, la inteligencia artificial pasó de no existir en nuestra rutina a estar en todas partes. Como he mencionado en textos anteriores, modelos como ChatGPT o Claude aprendieron leyendo la información disponible en la web. Hoy, ese mapa está casi completo.

El siguiente paso no es crecer en datos de la web, sino diferenciar los modelos con algo distinto: información auténtica, nueva, propietaria.

Aquí aparece un riesgo que se esconde detrás de información prácticamente ilimitada.

Ese riesgo es el model collapse. En términos simples, si las IA se entrenan con contenido de la web y la web está llena de contenido producido por otras IA, llega un momento en que los modelos aprenden de su propio reflejo.

Como una fotocopia de una fotocopia. Cada generación pierde calidad, personalidad, autenticidad, estandariza los outputs y también los errores.

Los datos ya muestran esta tendencia. Se estima que alrededor del 30% del texto en páginas activas proviene de IA. Algunos estudios sugieren que podría acercarse al 40%. Varios investigadores advierten que, cuando los modelos se alimentan de material sintético, pueden colapsar rápido. Dejan de representar el mundo y empiezan a repetir ruido.

Imagina un internet sin rarezas, sin errores, sin contradicciones. Un espacio correcto, ordenado y plano. La diversidad es la base de la evolución y del descubrimiento, el debate y contraste de ideas nos lleva a la verdad. Sin diversidad, no hay avance.

El valor de los modelos actuales viene de su entrenamiento con datos humanos: ideas, discusiones, ironías, estilos diferentes. Eso crea textura. Pero cuando esa textura se reemplaza por contenido artificial, el ecosistema se empobrece.

IBM lo resume bien: el model collapse es la caída en la calidad de los modelos cuando se entrenan con contenido generado por IA. Otros lo explican con claridad: en pocas generaciones, el contenido original se diluye y aparece una masa de material sin sentido. Este fenómeno ya tiene un nombre que se expande rápido: AI slop, contenido barato y repetitivo que llena los canales digitales.

El riesgo aparece en varios niveles.

Primero, la calidad. Cuando las IA se alimentan de sí mismas, se pierden matices y diferencias. Las rarezas que suelen ser el origen de nuevas ideas desaparecen.

Segundo, la desinformación. Si el contenido artificial domina, controlar la veracidad es cada vez más difícil. Y lo peor es que esas distorsiones pueden terminar entrenando a futuros modelos. Aquí también existe el riesgo de un ataque organizado para alterar la información y menter mentiras a los modelos.

Tercero, la economía de los contenidos. A medida que las máquinas producen más texto, el trabajo humano pierde visibilidad. Si todo parece bien escrito pero nada tiene autenticidad, la diferencia entre lo real y lo generado se vuelve borrosa.

Cuarto, la recurrencia. Si entrenamos futuras IA principalmente con material sintético, entramos en un círculo que se aleja cada vez más del mundo real y la calidad baja.

Y finalmente, la confianza. Cuando cualquier cosa puede ser artificial, la web se convierte en un espacio con cero confianza.

Existen iniciativas como C2PA que buscan certificar el origen del contenido con metadatos.

Algunos grupos trabajan en marcas invisibles para identificar texto generado por IA. Otros desarrollan filtros para limitar datos sintéticos y reforzar la presencia de material verificado. Medios y plataformas empiezan a ajustar reglas, licencias y etiquetas para proteger la señal humana.

El camino no es simple, pero es necesario. La IA nació de la inteligencia humana y eso la hace tan útil, no podemos darnos el lujo de perder esa conexión. No se trata de frenar su crecimiento, sino de fortalecer sus raíces.

El futuro de la inteligencia artificial dependerá de nuestra capacidad para preservar la autenticidad del conocimiento. No de cuánto produce, sino de la calidad de lo producido.

Dame tu opinión en mis redes.

Hasta la próxima,

Manuel

Manuel  Trevilla

Manuel Trevilla

Empresario, conferencista especialista en marketing digital, innovación y wellness. Mentor y consejero de organizaciones como Google Launchpad, Masschallenge y LFT.

COLUMNAS ANTERIORES

El día que nació ChatGPT... y nadie entendió como
Inteligencia artificial, artificial: un experimento de Apple puso de cabeza a la industria de AI

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.