La Inteligencia Artificial com...

Inteligencia Artificial en contra del LA/FT

La Inteligencia Artificial como herramienta estratégica contra el Lavado de Activos y la Financiación del Terrorismo:

El 24° Congreso Panamericano de Riesgo LA/FT/FPADM, organizado por Asobancaria, dedicó un panel crucial a las principales amenazas cibernéticas asociadas al lavado de activos (LA) y a la financiación del terrorismo (FT), y cómo diversos sectores se están preparando para enfrentar este complejo panorama. Con la moderación de Carlos Díaz, vicepresidente de cumplimiento del Banco Itaú, el debate contó con la participación del Capitán José Alejandro Reyes de la Policía Nacional, Mariano Sánchez, CEO de Risks International, y Juan Uribe, gerente de planeación de mercado de LexisNexis RISK Solutions.

El panel abordó un tema central en la agenda actual: el uso de la inteligencia artificial (IA) en la prevención del lavado de dinero. Carlos Díaz introdujo la discusión planteando una inquietud clave: si bien la IA ha demostrado una alta efectividad en campos como los diagnósticos médicos (con un 85% de efectividad), ¿qué sucede con el 15% restante? Un error en este margen, aunque pequeño, podría ser altamente riesgoso para un Oficial de Cumplimiento. La IA está bombardeando a las entidades financieras para una amplia gama de funciones, desde el onboarding digital hasta la vinculación de clientes, y el objetivo del panel fue aterrizar su aplicación práctica en la prevención del LA/FT.

El ascenso de los delitos cibernéticos en Colombia:

El Capitán José Alejandro Reyes ofreció un diagnóstico de los delitos cibernéticos en Colombia, destacando su crecimiento exponencial. Desde su regulación con la Ley 1273 de 2009, las denuncias han pasado de poco más de 500 a más de 70.000 en 2024. Este aumento se disparó particularmente a partir de la pandemia de COVID-19 en 2020, cuando gran parte de las actividades físicas migraron al entorno digital. Aunque los nueve tipos de delitos cibernéticos han mostrado un ligero descenso, la experiencia indica que las cifras suelen dispararse a finales de año.

Reyes hizo un énfasis en la importancia del CAI virtual, un servicio que desde 2007 atiende incidentes cibernéticos y recibe información de ciudadanos y empresas. Un ejemplo de su utilidad fue la detección del «gota a gota virtual», una modalidad de extorsión que migró de lo físico a lo digital.

El Capitán también compartió cifras impactantes sobre otras actividades ilícitas:

  • Extorsión: Más de $29 mil millones de pesos recaudados entre 2023 y 2025 en Colombia.
  • Tráfico de armas: A nivel global, la ONU estima ganancias entre $170 y $320 millones de dólares.
  • Sustancias ilegales: La dark web mueve anualmente $315 millones de dólares en estas transacciones.
  • Tráfico de migrantes: Actividades como el cruce del Darién ahora se publicitan abiertamente en redes sociales, ofreciendo «paquetes» y números de contacto, desmitificando la idea de que todo se oculta en la dark web.
  • Venta de drogas: También se realiza a través de redes sociales y aplicaciones de mensajería instantánea, que, según el Capitán, están «rayando» con la dark web para propósitos ilegales.
  • Casinos digitales: Son un gran reto para las agencias de ley, especialmente cuando las transacciones se dan en criptomonedas.

Criptomonedas: un desafío en la Lucha contra el LA/FT

El Capitán Reyes enfatizó que las criptomonedas son una realidad en Colombia, aunque aún no están reguladas. A pesar de la falta de regulación, las autoridades están actuando para combatir su uso ilícito. Un informe de Chainalysis reveló que, entre octubre de 2023 y septiembre de 2024, se movieron más de $21 mil millones de dólares en criptoactivos en Colombia, posicionando al país como el quinto en la región en movimientos financieros de cripto. En Latinoamérica, se han utilizado más de $1.880 millones de dólares en criptomonedas de forma ilegal para financiar delitos como el SCAM (explotación sexual infantil) y el terrorismo.

Inteligencia Artificial: beneficios y retos para el cumplimiento

Juan Uribe de LexisNexis RISK Solutions y Mariano Sánchez CEO de Risks International abordaron el papel de la IA en la prevención del LA/FT. Juan Uribe destacó que la IA no es un tema nuevo y que su relevancia se debe a la creciente complejidad de la función de cumplimiento. Citó cifras de la actividad sancionatoria, señalando que agencias como la OFAC son cada vez más activas, con más de una actualización diaria en las listas de sanción de las cuatro principales agencias (Naciones Unidas, OFAC, OFCI y Unión Europea). Esta realidad impulsa la necesidad de herramientas que mejoren la efectividad y eficiencia de los recursos para analizar el riesgo y concentrarse en lo que verdaderamente importa.

Uribe hizo referencia al informe de GAFI sobre las oportunidades y retos de la tecnología en AML y financiación del terrorismo, que concuerda en que la IA es una herramienta para mejorar la efectividad en la detección. Sin embargo, enfatizó la importancia de no reducir la IA solo a modelos como Copilot o ChatGPT. Existe una amplia gama de modelos de IA, machine learning, redes neuronales y deep learning, y es crucial ser cuidadosos debido a la sensibilidad de la información manejada y las implicaciones de las decisiones.

Un concepto crítico para Uribe es la explicabilidad de los modelos de IA. Es fundamental que, al implementar un modelo, se pueda explicar su funcionamiento a un auditor. El modelo no responderá por el Oficial de Cumplimiento. En este sentido, los árboles de decisión son un modelo de machine learning que, al estar basados en reglas, son más fáciles de explicar. Permiten entrenar el modelo basándose en las decisiones previas tomadas por los analistas, agilizando el proceso.

Beneficios tangibles de la IA para Oficiales de Cumplimiento:

Cuando Carlos Díaz preguntó sobre los beneficios palpables de la IA para un Oficial de Cumplimiento, Juan Uribe enumeró los siguientes:

  • Reducción de falsos positivos: La IA puede ayudar a descartar alertas innecesarias, permitiendo al Oficial de Cumplimiento enfocarse en los casos verdaderamente relevantes.
  • Priorización de alertas: Los modelos de IA pueden clasificar y priorizar las alertas según su nivel de riesgo, optimizando el tiempo y los recursos.
  • Evaluación de modelos de reglas para monitoreo transaccional: La IA puede mejorar la eficacia de los sistemas de monitoreo existentes.
  • Monitoreo en medios adversos y noticias negativas: La IA facilita el análisis de grandes volúmenes de información para identificar riesgos asociados a la reputación o actividades ilícitas.

Automatización y beneficiarios Finales: el rol de la IA

Mariano Sánchez de Risks International profundizó en otros usos de la inteligencia artificial, destacando su aplicación en el cumplimiento del artículo 12 de la Ley 2195, que obliga a los sujetos a identificar al beneficiario final detrás de cualquier negocio o vehículo jurídico. La IA se está utilizando para transformar datos en información que permita tomar decisiones informadas, un aspecto crucial para el enfoque basado en riesgo que establecen las recomendaciones 10, 24 y 25 del GAFI.

Sánchez enfatizó que la IA sin datos no es nada, y que la falta de acceso a datos que solo tienen las autoridades (como la DIAN o la SuperSociedades) obliga a las empresas a utilizar la tecnología para cumplir con sus obligaciones. En este sentido, la IA permite:

  • Análisis automatizado de estructuras complejas: Utilizando información pública para detectar beneficiarios finales.
  • Procesamiento inteligente de documentos: Mediante lenguaje natural y OCR (reconocimiento óptico de caracteres), la IA puede leer documentos como cámaras de comercio, RUT o registros únicos de beneficiarios finales para identificar quién está detrás de una empresa.
  • Integración con fuentes externas y públicas: Lo que reduce significativamente el tiempo y ayuda a tomar decisiones automáticas.

Mariano también mencionó la importancia de analizar a las Personas Públicamente Expuestas (PPE), no solo las políticamente expuestas, para entender con quién se está haciendo negocio. Esto implica analizar su presencia en redes sociales, número y tipo de seguidores, y su jurisdicción de influencia. La IA puede robustecer este proceso de Debida Diligencia, permitiendo una diligencia mejorada o ampliada que vaya más allá de lo básico y se alinee con el comportamiento transaccional del cliente.

Aplicaciones avanzadas de la IA en la prevención del LA/FT:

Juan Uribe complementa la discusión con ejemplos adicionales del uso de la IA:

  • Revisión de pagos transfronterizos: La IA puede validar y remediar alertas en escenarios con ventanas de tiempo limitadas para respuesta.
  • Screening y monitoreo constante de terceros: Los modelos de IA pueden automatizar este proceso y cerrar alertas.
  • Evaluación del comportamiento de reglas de monitoreo transaccional: Utilizando regresiones con datos transaccionales, la IA puede evaluar el nivel de detección real de transacciones versus las alertas generadas, permitiendo balancear y optimizar las reglas.

El objetivo, según Uribe, es potencializar lo que ya se tiene en cumplimiento y no sustituirlo. La IA busca mejorar la detección, ser más efectiva y eficiente en el uso de los recursos, preparando a las organizaciones para una mejora continua.

Riesgos y vulnerabilidades de la Inteligencia Artificial:

A pesar de los beneficios, los panelistas hicieron hincapié en los riesgos y vulnerabilidades asociados al uso de la IA. Mariano Sánchez destacó varios puntos críticos:

  • Sesgos algorítmicos: Los algoritmos pueden fallar, y el resultado de la IA dependerá directamente de la calidad de los datos con los que se entrena. Si la data carece de veracidad o legalidad, la información obtenida estará sesgada, llevando a decisiones erróneas.
  • Dependencia excesiva del sistema: Existe el riesgo de que las organizaciones generen una dependencia excesiva de la IA, esperando que responda a todo. Sánchez recordó que, como en el caso de los jueces, la IA debe ser una herramienta de consulta, no de toma de decisiones finales. Los oficiales de cumplimiento deben poder explicar el funcionamiento del modelo y sus resultados.
  • Falta de explicabilidad algorítmica («alucinaciones»): Especialmente en sistemas de Deep Learning que aprenden por sí mismos, es difícil explicar cómo se llegó a un resultado específico. Esto genera lo que se conoce como «alucinaciones», donde el modelo entrega un resultado sesgado sin una justificación clara.
  • Seguridad de los datos: Un riesgo fundamental es a quién se le entrega la data sensible de transacciones y clientes al utilizar sistemas de IA de terceros. Es crucial asegurar que la empresa proveedora tenga la solidez en ciberseguridad para proteger esta información y evitar que termine publicada en la web. No se trata de «meter los datos en una caja negra» y aceptar un resultado sin poder explicarlo.

La esencia de la implementación de IA: Explicabilidad y Gobernanza

Juan Uribe enfatizó que el mensaje más crítico en la adopción de la Inteligencia Artificial (IA) es la necesidad de priorizar la explicabilidad y la gobernanza. Se requieren modelos de caja blanca que permitan trazar la toma de decisiones y manipularlos para asegurar la comprensión y el control.

La gobernanza es igualmente vital: ¿Quién controla el modelo? ¿Cómo se concibió, entrenó, implementó y supervisó? Es fundamental realizar revisiones periódicas por terceros para asegurar que la IA sea supervisada y que haya claridad sobre el destino de los datos. Uribe advirtió sobre el peligro de utilizar modelos no diseñados específicamente para cumplimiento, donde la información sensible (como datos transaccionales de clientes) pueda terminar en manos equivocadas o sin la ciberseguridad adecuada. La IA debe ser una herramienta que mejore los procesos del Oficial de Cumplimiento, no un sustituto. La decisión y el análisis final deben recaer siempre en los profesionales de cumplimiento.

Vulnerabilidades en ciberseguridad: un foco para Oficiales de Cumplimiento

El Capitán José Alejandro Reyes abordó las vulnerabilidades de ciberseguridad al implementar la IA. Aunque el uso de la IA es inevitable, es crucial considerar varios riesgos antes de su implementación:

  • Infraestructura: ¿Se desarrollará la IA en infraestructura propia (on-premise), en una nube privada o será un servicio tercerizado? Esta última opción genera más preguntas sobre el modelo de entrenamiento, la privacidad de la información y el manejo de datos por parte del proveedor.
  • Transparencia del modelo: Es un desafío verificar si lo que la empresa vendedora afirma sobre su modelo de IA (cómo opera, sus algoritmos, su robustez en protección de datos) es realmente cierto.
  • Conexiones ocultas: Existe el riesgo de que la IA implementada se conecte, a través de APIs, a inteligencias artificiales públicas con políticas de protección de datos menos robustas, exponiendo la información del cliente.

La principal recomendación del Capitán Reyes es involucrar a una persona del equipo de ciberseguridad para trabajar de cerca con el proveedor, realizar pruebas de concepto y verificar la veracidad de lo que se vende. Una IA entrenada con información superficial o que reposa en lugares inseguros puede generar respuestas de baja calidad y poner en riesgo la confidencialidad de los datos.

La caja negra de la IA: documentación y gestión de riesgos

La pregunta sobre cómo abrir la «caja negra» de la IA y documentar su funcionamiento para la auditoría fue crucial. Juan Uribe enfatizó la importancia de la gestión de riesgo de modelo. Cada vez que se implementa un modelo de IA, debe acompañarse de un sistema que documente todo el proceso: cómo se concibió, cómo se entrenó, qué datos se cargaron y cómo se revisa continuamente.

Es fundamental un análisis profundo por parte de un tercero para evaluar el modelo, con revisiones periódicas documentadas. Este sistema de gestión de riesgo del modelo es esencial para que, al momento de una auditoría, se pueda explicar y justificar cada decisión basada en la IA.

La Inteligencia Artificial y el rol humano: una colaboración necesaria

El debate sobre si la IA reemplazará al ser humano en la toma de decisiones en cumplimiento fue abordado por Mariano Sánchez. Si bien es una pregunta difícil, la conclusión es que depende de nosotros y de la dependencia que generemos. La IA debe ser una herramienta para perseguir el delito y las finanzas criminales, no un sustituto de la capacidad humana.

Aunque la IA puede automatizar tareas repetitivas, el criterio experto y humano sigue siendo indispensable. La toma de decisiones informadas y la aplicación de buenas prácticas de mitigación son roles que la IA no puede replicar completamente. El riesgo de volverse «más perezoso» por el uso de la IA (como sugieren algunos estudios) es real, por lo que los profesionales deben estar preparados para no ser reemplazados. La IA es una herramienta para ser más eficientes y efectivos, pero «la máquina no debe superar al creador».

Equipos multidisciplinarios y colaboración público-privada:

La implementación de la IA en cumplimiento requiere un equipo multidisciplinario. Mariano Sánchez sugirió la integración de científicos de datos, ingenieros matemáticos e ingenieros de analítica. La experiencia del Oficial de Cumplimiento será clave para determinar qué perfiles son necesarios en cada área, pero la combinación de diferentes enfoques y ciencias es crucial para validar continuamente los modelos y evitar sesgos algorítmicos.

El Capitán Reyes compartió que la Dirección de Investigación Criminal de la Policía Nacional ya está trabajando en la implementación de IA para analítica de grandes volúmenes de datos y predicción del delito, entrenando inteligencias artificiales con datos estadísticos e históricos de crimen. Aunque existen riesgos y aún hay errores, la modernización es inevitable.

Lo bueno, Lo malo y lo clave de la IA en cumplimiento:

Y tras esta enriquecedora intervención, protagonizada por panelistas de reconocido prestigio y profunda experiencia en la materia, llegó el momento de condensar los aportes más relevantes. Para dar cierre a este destacado panel, los expertos realizaron una síntesis de los principales hallazgos, enfatizando los puntos clave que marcarán la ruta futura en la aplicación ética y estratégica de la inteligencia artificial en la prevención del crimen financiero.

  • Capitán José Alejandro Reyes:
    • Lo bueno: La efectividad en los procesos. La IA no reemplazará al ser humano y es una herramienta valiosa para aprovechar.
    • Lo malo: La necesidad de realizar un estudio de riesgo exhaustivo y una documentación rigurosa.
    • Punto clave: Incluir siempre a un experto en ciberseguridad en el equipo para el seguimiento y la mitigación de riesgos de fuga de información. El delito informático se articula cada vez más con el lavado de activos, requiriendo una respuesta moderna.
  • Juan Uribe:
    • Lo bueno: La IA debe cumplir con las 3 «E»: eficiencia, efectividad y, sobre todo, explicabilidad. La eficacia en la detección debe basarse en modelos que se puedan explicar.
    • Lo malo: El riesgo de usar modelos que no se pueden explicar.
    • Punto clave: La gobernanza. Es fundamental entender cómo se entrenó el modelo, dónde va la información y cómo está protegida. La IA debe perfeccionar los modelos existentes, liberar cargas operativas y permitir que los profesionales se concentren en el análisis de riesgos.
  • Mariano Sánchez:
    • Lo bueno: La rapidez y eficiencia que ahorra tiempo y optimiza procesos.
    • Lo malo: La dependencia excesiva que puede generar en los oficiales de cumplimiento, y la falta de regulación clara sobre el uso de la IA en Colombia.
    • Punto clave: Los riesgos asociados al manejo y uso de los datos, que son el «petróleo» de la IA. Es crucial estar alerta para asegurar el cumplimiento de las políticas de tratamiento de datos y la legislación vigente.

El panel del 24° Congreso Panamericano de Riesgo dejó claro que la inteligencia artificial es una herramienta de doble filo en la lucha contra el Lavado de Activos y la Financiación del Terrorismo. Si bien ofrece oportunidades inmensas para mejorar la eficiencia y la efectividad, su implementación debe ser cautelosa, priorizando la transparencia, la gobernanza, la seguridad de los datos y el insustituible criterio humano.

Los expertos coincidieron en que su implementación debe ser cautelosa, estratégica y gradual, acompañada siempre por estructuras claras de gobernanza, validaciones continuas y documentación exhaustiva de cada modelo. La efectividad tecnológica debe ir de la mano con la explicabilidad: es indispensable que quienes operan estos sistemas puedan comprender, justificar y defender las decisiones que arrojan.

Finalmente, se remarcó que, si bien la inteligencia artificial es una aliada poderosa, no puede ni debe sustituir el juicio humano en procesos de cumplimiento. La sensibilidad, el criterio y la experiencia de los profesionales siguen siendo insustituibles. El verdadero valor está en saber combinar el potencial de la tecnología con la capacidad analítica y ética del ser humano para anticipar, prevenir y responder con eficacia a los desafíos del crimen financiero en la era digital.

¡Síguenos en nuestras redes sociales y únete a nuestro canal de WhatsApp para acceder a contenido exclusivo, análisis especializados y cobertura en tiempo real de eventos como el Congreso Panamericano de Riesgo!

La revolución del Compliance: ¿Cómo la IA transforma la gestión de riesgos?

 

No Replies on La Inteligencia Artificial como herramienta estratégica contra el Lavado de Activos y la Financiación del Terrorismo

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.