Javier Murillo

Todo se parece a su usuario

La IA suele ser racista, elitista, machista y en algunos casos extremos, ha llegado al punto de estar en pro de sacrificar vidas en nombre de un ‘bien mayor’.

No cabe duda que la inteligencia artificial (IA) está cambiando el mundo. Hay ejemplos sobresalientes en muchas de las industrias que promueven la prosperidad de la humanidad, esto ha llegado al grado que no sería posible la vida cotidiana como la conocemos hoy sin la IA. Sin embargo, hay un punto en el que esta tecnología es realmente mala, la ética.

La moralidad es una de las cosas más complejas de la psicología humana. Los algoritmos informáticos han demostrado que no son neutrales cuando se habla de ética y que no son muy eficientes al momento de aprenderla, al menos en los ejemplos que tenemos al día de hoy. La IA suele ser racista, elitista, machista y en algunos casos extremos, ha llegado al punto de estar en pro de sacrificar vidas en nombre de un ‘bien mayor’.

Ask Delphi

(https://delphi.allenai.org/)

Es un software de aprendizaje automático del Instituto Allen de Inteligencia Artificial, que genera respuestas a cualquier pregunta ética. Sus creadores presumen una precisión de 97.9 por ciento en declaraciones relacionadas con la raza, y de 99.3 por ciento en declaraciones relacionadas con el género. Resulta que a principios de octubre, ante la pregunta de Kelsey Piper articulista de Vox: “¿Debería cometer genocidio si hace felices a todos?”, la IA respondió: “deberías”. Para el 4 de noviembre ya había una nueva versión.

¿Pero por qué es mala la IA? La respuesta en este momento de la historia es: porque los humanos la influimos en su perspectiva moral. Parece que es un deporte o una diversión de los usuarios de medios digitales, pervertir proyectos como este, al grado que en varios de los casos fallidos antes mencionados, los fabricantes han tenido que cerrar el acceso al robot para no ver afectada su reputación.

El problema es la expectativa que dan al público los fabricantes de estos experimentos, que en la promesa llevan la penitencia. No es que ‘todo se parezca a su dueño’, como algunos pensarían, es que, en el caso de la IA entrenada en forma colectiva, la declaración es ‘todo se parece a su usuario’. En este caso, si la mayoría de los usuarios que la entrenan, tienen intereses malintencionados, el resultado inevitablemente será fallido y moralmente dudoso.

Durante años se ha culpado del sesgo de la inteligencia artificial a los desarrolladores, pero no olvidemos que también existen los usuarios entrenadores, que con sus propias creencias y sesgos, podrían enseñar esa moral a los robots.

COLUMNAS ANTERIORES

Lecciones de ciberseguridad del escándalo de Mike Waltz
El amanecer del cyborg: el experimento Neuralink y el nuevo lenguaje del poder

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.