Bloomberg Businessweek

Demuestra que eres humano

La IA ya engaña a los humanos: deepfakes, voces clonadas y textos “demasiado perfectos” erosionan la confianza en línea. Empresas y personas improvisan nuevas pruebas para distinguir a la gente real de las máquinas.

alt default

Hany Farid no lograba quitarse de la cabeza la sensación de que, en realidad, no estaba hablando con Barack Obama.

Corría el año 2023 cuando un asesor de Obama contactó a Farid, profesor de ciencias de la computación en la Universidad de California en Berkeley, especializado en análisis de imágenes digital, para preguntarle si aceptaría conversar con el expresidente sobre la tecnología de los deepfakes. A medida que avanzaba la videollamada, la experiencia de hablar cara a cara con Obama, con una voz y una cadencia tan reconocibles como siempre, empezó a sentirse inquietantemente extraña.

“Todo el tiempo pensaba: ‘Esto es un deepfake. Este no es Obama’”, cuenta Farid. “Quería decirle: ‘Ponte la mano frente a la cara’”.

En ese momento, pedirle a alguien que moviera la mano frente al rostro era una forma común de identificar un deepfake. La imagen en pantalla solía distorsionarse y delatar al impostor… o no. Pero Farid no fue capaz de mirar a los ojos al expresidente y pedirle que demostrara que esos ojos eran reales. “Así que durante 10 minutos”, dice, “estuve pensando: ‘¿Me están tomando el pelo?’”.

Resultó que no le estaban tomando el pelo. Pero las sospechas de Farid reflejaban hasta qué punto la inteligencia artificial ha alimentado la paranoia entre las personas que interactúan en línea. La tecnología, además, avanza con rapidez para sortear las defensas humanas más evidentes. El truco de agitar la mano ya está quedando obsoleto, como Farid demostró en una videollamada reciente con Bloomberg Businessweek al sustituir su propio rostro por el del director ejecutivo de OpenAI, Sam Altman. Había cierto desfase entre la voz y el video, y una leve falta de vida en la mirada, pero Farid podía rascarse la mejilla o apuntar una linterna a su cabeza sin que la imagen se alterara en absoluto. “Como regla general”, dice Farid, “esa idea de que estás en una videollamada con alguien y por eso puedes confiar, ya se acabó”.

Las personas se han estado preparando para el día en que las máquinas pudieran comportarse de forma convincente como humanos al menos desde 1950, cuando Alan Turing propuso una evaluación a la que llamó el “juego de la imitación”. En lo que hoy se conoce como la prueba de Turing, un juez humano mantenía una conversación escrita con una máquina y con otra persona, y luego debía adivinar cuál era cuál. Si la máquina lograba engañarlo, aprobaba. Décadas después, los sitios web empezaron a pedir a los usuarios que demostraran que eran humanos descifrando esas letras y números retorcidos conocidos como captchas, fáciles de leer para las personas, pero difíciles para las computadoras (el acrónimo significa Completely Automated Public Turing test to tell Computers and Humans Apart). A medida que las herramientas automatizadas se volvieron más sofisticadas, estas trampas digitales también lo hicieron. Y se volvieron más extrañas: llegaron a exigir que la gente identificara fotos de perros “sonriendo” y, al hacerlo, se preguntara incluso si los perros pueden sonreír, solo para comprar boletos para un concierto.

La llegada de los modelos de lenguaje de gran escala ha derribado esas defensas. Con indicaciones cuidadosamente formuladas, han demostrado las investigaciones, los agentes de IA pueden resolver captchas complejos. Otro estudio reciente, con 126 participantes, sometió a varias LLM a la prueba de Turing y descubrió que los evaluadores identificaron a GPT-4.5 de OpenAI como humano el 73 por ciento de las veces.

Sin embargo, la confianza comienza a deteriorarse, lo que vuelve vulnerable a cualquier interacción —ya sea con un posible empleador, una potencial pareja, tu madre llamando desde sus vacaciones en el extranjero o un expresidente de EU— a engaños de alto nivel. Ya hay estafadores que han utilizado clonación de voz para hacerse pasar por el secretario de Estado de Estados Unidos, Marco Rubio, y comunicarse con ministros de Relaciones Exteriores. En 2024, informó CNN, un empleado radicado en Hong Kong de una empresa multinacional transfirió 25 millones de dólares a un estafador que usó un deepfake para suplantar al director financiero de la compañía.

Ante la ausencia de mejores soluciones, tanto individuos como instituciones están improvisando sus propias pruebas de Turing. Están saltando nuevos obstáculos, a menudo en contra de las normas sociales existentes, para verificar la humanidad propia y la de los demás. A medida que las máquinas se vuelven más hábiles para parecer humanas, los humanos están cambiando su forma de actuar. Modifican cómo escriben, cómo contratan y cómo interactúan con desconocidos, todo para evitar ser confundidos con —o engañados por— la IA.

Elizabeth Zaborowska solía ser conocida en su oficina como “la reina del guion largo”, al grado de que sus colegas de su primer empleo en marketing en Nueva York colgaron un letrero con ese apodo fuera de su cubículo. Zaborowska veía ese recurso de puntuación como una forma elegante de unir dos ideas sin enturbiar las frases. Cuando fundó su propia firma de relaciones públicas, Bhava Communications, su equipo adoptó el estilo de escritura de su jefa, guiones largos incluidos. Pero ChatGPT también tiene una debilidad por los guiones largos, cuyo uso ha acabado en la lista corta de muletillas retóricas que hoy se consideran señales de prosa generada por IA. Justo cuando las empresas están despidiendo a sus agencias de relaciones públicas para sustituirlas por herramientas gratuitas de IA, Zaborowska no podía arriesgarse a que alguien pensara que estaba presentando el trabajo de un chatbot como propio. La primavera pasada reunió a su equipo en su reunión virtual semanal y decretó la prohibición definitiva del guion largo (cabe señalar que OpenAI está trabajando para erradicar la obsesión de su chatbot por ese signo).

En el gran esquema de la disrupción impulsada por la IA, fue un sacrificio mínimo. Pero para Zaborowska era un presagio de algo mayor: para sonar humana, estaba suprimiendo sus instintos. “Está cambiando el ritmo del lenguaje”, dice, “y yo estoy obsesionada con el lenguaje”.

Para Sarah Suzuki Harvard, redactora en la agencia de contenidos storyarb, el esfuerzo generalizado por identificar textos escritos por IA se ha convertido en “una cacería de brujas” que la ha llevado a autocensurar su propio trabajo. Recientemente se desahogó en LinkedIn sobre todas las construcciones habituales de escritura que ahora se ven como banderas rojas de IA. Lo irritante, dice, es que esas señales son en realidad tics humanos que las computadoras absorbieron durante su entrenamiento. “Somos nosotros quienes construimos las máquinas”, afirma Suzuki Harvard. “Nos están plagiando”.

Aun así, la carga de la prueba ha recaído en los humanos. El problema es especialmente visible en los campus universitarios, donde profesores usan Reddit para intercambiar estrategias para detectar a estudiantes que hacen trampa con ChatGPT, mientras que los alumnos recurren a TikTok para desahogarse por ser castigados cuando su trabajo genuino es confundido con IA. Los editores de Wikipedia, por su parte, se han organizado para eliminar entradas generadas por IA, rastreando el sitio en busca de señales evidentes, como citas falsas, y otras más sutiles, como artículos que abusan de la palabra delves.

El objetivo no es eliminar todo el contenido generado por IA en Wikipedia, explica Ilyas Lebleu, miembro fundador del grupo de editores WikiProject AI Cleanup, sino eliminar la basura.

“Si la información es correcta y hay citas reales, está bien”, dice. “La mayor queja es contra el contenido de IA sin revisión”.

En el ámbito de la contratación, la IA generativa ha facilitado que cualquiera cree una solicitud de empleo completa con un solo clic, lo que ha provocado un aumento de cartas de presentación y currículums que los equipos de recursos humanos, ya sobrecargados, deben revisar. Kyle Arteaga, director ejecutivo de la firma de comunicación Bulleit Group, con sede en Seattle, dice que su empresa ha recibido recientemente miles de solicitudes por vacante y que a menudo termina entrevistando a personas que usaron IA para postularse de forma tan industrial que ni siquiera recuerdan haber aplicado. Su equipo ha respondido colocando “cables trampa” de IA en las ofertas de empleo, pidiendo a los solicitantes que incluyan una referencia a la cultura pop en su carta y que indiquen a qué casa de Hogwarts pertenecen. En una vacante reciente, cuenta Arteaga, menos del 3 por ciento de los más de 900 candidatos siguió las instrucciones, lo que redujo drásticamente el grupo de aspirantes.

Para mitigar el riesgo de estafas con IA, las personas también están recurriendo a lo que Farid llama “soluciones analógicas”. Altman, de OpenAI, sugirió recientemente que una defensa contra la clonación de voz que suplanta a seres queridos podría ser que las familias acuerden “palabras clave” secretas para usarlas en momentos de crisis.

A finales del año pasado, el banco británico Starling lanzó una campaña de marketing animando a sus clientes a hacer lo mismo. Según la entidad, el 82 por ciento de quienes vieron el mensaje dijeron que probablemente seguirían el consejo.

Otros están adoptando preguntas trampa para confirmar humanidad en la web. Durante un chat reciente con un agente de atención al cliente en línea, Pranava Adduri dice que le pidió definir Navier-Stokes, un conjunto de ecuaciones matemáticas que describen el movimiento de fluidos viscosos. Cualquier chatbot aplicado, entrenado con todo el conocimiento del mundo, se apresuraría a responder, explica Adduri, cofundador y director de tecnología de la empresa de seguridad Bedrock Data, con sede en Menlo Park, California. Pero el agente contestó simplemente: “No tengo idea”.

“Ahí pensé: ‘Ok, eres humano’”, dice Adduri.

Un gran número de empresas, incluida Google de Alphabet, está volviendo las entrevistas presenciales, a las que los chatbots, por regla general, no pueden asistir. Un portavoz de Google afirma que la compañía hizo el cambio para ayudar a los nuevos empleados a adaptarse a su cultura y para “asegurarse de que los candidatos tengan las habilidades básicas de programación necesarias para los puestos a los que aspiran”.

Pero Google y otras grandes corporaciones tienen más razones para querer conocer en persona a sus nuevos empleados. Según el Buró Federal de Investigaciones (FBI), trabajadores de TI encubiertos de Corea del Norte han conseguido empleos en más de 100 empresas de EU haciéndose pasar por trabajadores remotos. Estas estafas, que a menudo dependen de herramientas de IA, canalizan cientos de millones de dólares al año hacia Corea del Norte e incluso han involucrado a cómplices estadounidenses.

“No es ningún secreto que hay candidatos falsos ahí afuera”, dice Kelly Jones, directora de personal de Cisco Systems, quien señala que la empresa ha añadido verificación biométrica a su proceso de contratación.

La gran demanda de pruebas de humanidad ha dado lugar, de manera natural, a una economía emergente de soluciones tecnológicas. De un lado están las herramientas para detectar deepfakes que se integran a plataformas existentes, como Zoom, y prometen identificar audio y video sintéticos en tiempo real. JPMorgan Chase utiliza una de ellas, llamada Reality Defender, en su red de comunicaciones.

Farid, por su parte, ha cofundado su propia empresa, GetReal Security, que también ofrece detección en tiempo real de deepfakes, además de otros servicios de forensia digital.

Del otro lado están las herramientas que prometen verificar que las personas son realmente personas mediante métodos criptográficos o biométricos. La más conocida es Orb, un dispositivo de escaneo ocular desarrollado por Tools for Humanity, cofundada por Altman. Orb utiliza escaneos de iris para generar un código de identificación que sus creadores comparan con un pasaporte digital. Ese código, llamado World ID, puede validarse con la aplicación World App cada vez que un usuario necesita confirmar su identidad. Aunque los desarrolladores aseguran que el sistema no almacena datos personales, la idea ha provocado un considerable temor distópico. Algunos países, incluido Brasil, han llegado incluso a prohibirlo.

Orb y otras propuestas de “prueba de personalidad” dependerían de una sola entidad —una empresa privada, un gobierno o una organización no gubernamental— para emitir las credenciales, concentrando un enorme poder en manos del emisor. Además, son soluciones de largo plazo que requieren una amplia aceptación social e institucional. Y frente a la crisis de confianza en línea, dice Farid, “tenemos un problema ahora mismo”.

Cada una de estas supuestas soluciones, desde el fin del guion largo hasta Orb, implica concesiones: ya sea pedir a las personas que cedan pequeños fragmentos de sí mismas o convertir el acto de ser humano en una especie de actuación. Hemos llegado a un punto en la evolución de la IA en el que hemos entrenado máquinas probabilísticas para que sean demasiado buenas prediciendo qué haría un humano en cualquier circunstancia. Ahora, para distinguirnos de ellas, nos toca a nosotros intentar descifrar exactamente lo mismo.

Lee aquí la versión más reciente de Businessweek México:

También lee:

whastapp