El próximo 8 de junio estaremos participando en la sexta edición del Marval Annual Summit on Compliance, Anti-Corruption and Investigations, un evento líder sobre compliance en Latinoamérica, donde expositores locales e internacionales compartirán su experiencia y conocimientos respecto a desafíos, desarrollos y tendencias en esta temática.Links de registro e información adicional acá. Raúl Saccani, Director del Centro de Gobernabilidad y Transparencia del IAE Business School, junto con Agustin Huerta, SVP Studios & VP of Technology IoT Studio de Globant y Gustavo Morales Oliver, socio líder del departamento de Compliance, Anticorrupción e Investigaciones de Marval, llevarán adelante un panel sobre Inteligencia Artificial y Compliance. Es indudable que el futuro del Compliance está, como otros órdenes de la vida corporativa, ligado al desarrollo y uso del AI. En América Latina se han reportado avances en este campo, pero también hay desafíos y oportunidades, que exploraremos en profundidad en el panel. Es necesario que los profesionales del Compliance se capaciten y actualicen constantemente, que supervisen los sistemas de IA de forma que los usuarios asuman la responsabilidad por los resultados y que cumplan con los estándares éticos y futuras regulaciones.
Aproximadamente seis meses después del lanzamiento de ChatGPT de Open AI y después de escuchar a los líderes de la industria manifestarse sobre las preocupaciones en materia regulatoria a nivel global, es probable que las empresas incorporen esta tecnología en sus operaciones y sigan expandiendo el despliegue de la IA, con desarrollos propios. Una reciente encuesta de Forbes Advisor encontró que el servicio al cliente es el uso actual más popular para la IA, aunque también lo es la ciberseguridad y gestión del fraude (ambos temas de mucha relevancia en Compliance).
La investigación de Forbes Advisor encontró que los propietarios de negocios son extremadamente optimistas sobre el impacto de la IA, especialmente ChatGPT, que el 97% de los encuestados dijo que tendría un efecto positivo en sus operaciones. Eso no quiere decir que su optimismo no esté equilibrado por cierta inquietud. De hecho, alrededor de un tercio de los líderes dijeron que estaban preocupados por la reducción de la fuerza laboral causada por la IA, y una proporción similar dijo que temía la proliferación de información errónea. Y el 43% dijo que les preocupa que sus equipos dependan demasiado de la IA.
La IA puede utilizarse, por ejemplo, para la comprensión del habla o de textos, el reconocimiento de imágenes o la detección de sonidos, los sistemas basados en el conocimiento, la interacción persona-computadora o los sistemas de asistencia automática, tecnología de sensores y robots, realidad virtual y realidad aumentada. En materia de GRC (Gobernanza, Riesgo y Cumplimiento) existen aplicaciones específicas cuyos objetivos, por ejemplo, son:
- Integración de sistemas, aplicaciones y segmentos.
- Modelización, simulación, análisis de escenarios, algoritmos.
- Análisis de datos con ayuda de IA, por ejemplo, para la detección de patrones, la clasificación o la agrupación, entre otros, con el objetivo de identificar y evaluar riesgos, detectar fraudes, encontrar incoherencias, etcétera.
- Sistema de alerta temprana, previsión, análisis predictivo.
Cuando hablamos del futuro del Compliance es inevitable pensar en cómo se beneficiará de la IA. Además del debate sobre su regulación y los estándares éticos en el desarrollo y uso de aplicaciones, en particular en materia de privacidad. Hay aspectos esenciales al Compliance que deben quedar sujetos al factor humano, como la supervisión, la auditoría y la responsabilidad. Aunque estos sistemas pueden automatizar procesos y facilitar el análisis de datos, no pueden reemplazar el juicio humano y la ética. Esto puede llevar a que los profesionales de Compliance necesiten tener los conocimientos mínimos para analizar los procesos que interactúan con sistemas de IA y así verificar que sean los humanos quienes asuman la responsabilidad por los resultados y las consecuencias de su uso. Así, se puede promover que los sistemas de IA sean utilizados de manera responsable y ética.
Las industrias de la región más activas en incursionar en IA, y su aplicación a Compliance en particular, son aquellas que manejan grandes volúmenes de datos y que requieren tomar decisiones rápidas y precisas, como el comercio electrónico, la banca o la salud. Estas industrias pueden beneficiarse de los sistemas de IA para detectar fraudes, prevenir lavado de dinero, optimizar procesos, mejorar la atención al cliente y aumentar la rentabilidad. Sin embargo, también deben cumplir con mínimos estándares éticos para proteger la privacidad y los derechos de los usuarios.
Construir y desplegar IA ética a escala presenta desafíos prácticos que crean nuevos riesgos éticos, tales como presiones regulatorias inconsistentes, objetivos empresariales conflictivos, problemas de calidad de datos, procesos de desarrollo, prácticas de integración de sistemas y la escala de despliegue. Es necesaria una consideración holística de la ética en el desarrollo y despliegue de las aplicaciones.
La investigación sobre la ética de la IA se encuentra en una encrucijada, ya que está sujeta a las relaciones de poder, los intereses geopolíticos y los objetivos empresariales. Aunque se ha avanzado en los fundamentos éticos, surgen problemas cuando se trata de la producción e implementación de las aplicaciones. El cumplimiento de la legislación apenas se ha debatido en el contexto de los métodos de aprendizaje automático utilizados en las investigaciones penales. La Comisión Europea ha propuesto recientemente la Ley sobre Inteligencia Artificial, un marco regulador para su uso fiable. Los sistemas de IA de alto riesgo para su uso en law enforcement están permitidos, pero sujetos al cumplimiento de ciertos requisitos obligatorios.
Incorporar el juicio humano a los procesos de Compliance que utilizan IA es esencial para tomar decisiones éticas y evitar resultados negativos. Incorporar el juicio humano a los procesos de Compliance que podrían utilizan IA abarca:
- Identificación de riesgos: Aunque la IA puede ayudar a automatizar ciertas tareas de Compliance, es esencial que los seres humanos participen en la identificación de riesgos. Pueden utilizar nuestra experiencia y conocimientos para identificar riesgos que, de momento, la IA podríano captar.
- Interpretar normativas y leyes: La IA puede utilizarse para analizar regulaciones, con ciertas limitaciones, pero se necesitan humanos para interpretarlas.
- Tomar decisiones éticas: La IA puede utilizarse para proporcionar datos y conocimientos, pero los humanos tomamos decisiones que tienen una dimensión ética que atender. Podemos considerar el impacto de las decisiones en las partes interesadas y garantizar que las decisiones sean justas y equitativas.
- Supervisión: es esencial supervisar la IA para que funcione correctamente y se tomen decisiones éticas. En definitiva, la IA no puede utilizarse como sustito en aquellas decisiones humanas.
Por lo tanto, es esencial encontrar un equilibrio entre la utilización de IA generativa y la confianza en la experiencia humana.La IA depende en gran medida de la calidad de los datos que recibe para generar contenidos. El contenido generado puede ser preciso si los datos son correctos, lo que conlleva riesgos de cumplimiento. Siendo que los modelos generativos son complejos, se dificulta la comprensión de cómo llegan a resultados específicos. Esta falta de transparencia puede complejizar la identificación de posibles riesgos de cumplimiento.
Es indudable que el futuro del Compliance está, como otros órdenes de la vida corporativa, ligado al desarrollo y uso del AI. En América Latina se han reportado avances en este campo, pero también hay desafíos y oportunidades, que exploraremos en profundidad en el panel sobre IA y Compliance en la sexta edición del Marval Annual Summit on Compliance, Anti-Corruption and Investigations. Es necesario que los profesionales del Compliance se capaciten y actualicen constantemente, que supervisen los sistemas de IA de forma que los usuarios asuman la responsabilidad por los resultados y que cumplan con los estándares éticos y futuras regulaciones.
En un próximo artículo exploraremos más a fondo los aspectos controvertidos de la vigilancia de los trabajadores y análisis desde la ética empresarial.
¡Hasta la próxima!
Fuentes:
Cómo las empresas están utilizando la inteligencia artificial en 2023 - Forbes Advisor
Beyond Fairness Metrics: Roadblocks and Challenges for Ethical AI in Practice
AI Ethics Principles in Practice: Perspectives of Designers and Developers
Software engineering for Responsible AI: An empirical study and operationalised patterns
Towards intellectual freedom in an AI Ethics Global Community
Compliance Challenges in Forensic Image Analysis Under the Artificial Intelligence Act