No es un secreto que la Inteligencia Artificial ha llegado a nuestras vidas de manera arrolladora; tan solo en el último año el uso de IA Generativa se incrementó en un 20%, penetrando prácticamente tres de cada cuatro empresas alrededor del mundo, según datos del estudio “The Business Opportunity of AI”, desarrollado por IDC y Microsoft.
Esta rápida adopción representa no solo un amplio horizonte de oportunidades, ayudándonos a ser más productivos, ágiles y flexibles, sino que también implica una serie de desafíos que abarcan desde su desarrollo tecnológico hasta cómo interactúa con el usuario final. Navegar el mundo de la IA implica toda una nueva superficie de riesgo, tanto en lo que a su potencial para el cibercrimen respecta, como en la forma en que contextualiza, analiza y entrega información.
Más allá de su potencial para infectar con archivos maliciosos, robar información o realizar actividades fraudulentas, la manera en que están programadas estas aplicaciones puede determinar el tipo de respuestas que generan, proveyendo resultados engañosos, fomentando la desinformación, facilitando la falta de transparencia, comprometiendo la privacidad o incluso brindando expresiones discriminatorias. Para entenderlo mejor, podemos dividir las amenazas de la IA en dos categorías: los riesgos explotativos y los sesgos de origen.
La primera nomenclatura abarca los incidentes perpetrados por agentes externos o terceros, quienes aprovechan las plataformas existentes para capitalizar errores de funcionamiento o lagunas en su programación, con el objetivo de obtener un beneficio: dinero, datos o accesos. En esta podemos englobar los ataques automatizados de malware y ransomware, así como las campañas de phishing o incluso las inyecciones de prompt, que manipulan a los LLM para realizar acciones no autorizadas.
En cambio, la segunda esfera parte de problemáticas en la alimentación y entrenamiento de los sistemas, ya sea por falta de materiales de referencia o el uso de fuentes parciales o incompletas, lo que genera un comportamiento anómalo como respuestas incorrectas o resultados opacos. Un ejemplo de esto son las alucinaciones de IA, un fenómeno en el que los modelos proveen respuestas falsas o inexistentes.
Identificar y comprender los riesgos asociados con el uso de la IA puede ayudar a las personas y organizaciones a aliviar su IA-nsiedad, es decir, aquellas preocupaciones relacionadas con la implementación y uso de la IA, incentivándolos a estar más preparados para enfrentarlos y gestionarlos.
Si bien muchas de estas aristas son parte de una carrera sin fin entre atacantes y defensores digitales, también es importante destacar el papel que tenemos quienes diseñamos, entrenamos y publicamos las soluciones de IA. Es claro que el poder transformador de estas tecnologías tiene un inmenso potencial para ayudar a resolver problemas sociales, empoderar a las personas y hacer a los negocios y las economías más competitivas; pero también nos encontramos en una etapa fundamental para dar forma a un paradigma tecnológico más ético e inclusivo.
Hoy más que nunca resulta imperativo que la industria en general, las empresas y los reguladores participen en un diálogo abierto, marcando la pauta de un futuro que aún está en desarrollo. A medida que la IA se vuelve más omnipresente e influyente, tenemos que garantizar que diseñe y despliegue de manera responsable, confiable y alineada con los valores humanos.
Para lograr esto, buscamos extender nuestro compromiso más allá de los muros figurativos de la empresa, llevando a nuestros socios, clientes y usuarios un estándar que cubre : equidad; fiabilidad y seguridad; privacidad y seguridad; inclusión; transparencia; y responsabilidad.
También proporcionamos herramientas, procesos y mejores prácticas para ayudar a nuestros equipos a implementar el estándar a lo largo del ciclo de vida de la IA, desde el diseño y desarrollo hasta el despliegue y monitoreo.
Sin embargo, esta debe ser una labor colaborativa, no un esfuerzo aislado. Este tipo de compromisos no son estáticos, sino que necesitan evolucionar y mejorar en función de las últimas investigaciones, comentarios y aprendizajes. Porque, conforme el progreso tecnológico se acelera, nuestra labor para salvaguardar los avances éticos de la IA debe evolucionar en consecuencia, poniendo al centro la necesidad de construir ambientes confiables y seguros para todos.
*Francisco Corona, Director de Tecnología de Microsoft México.