¿Cuáles son las oportunidades y desafíos de la IA en el ámbito de la prevención del fraude y la verificación de identidad? Nos reunimos con Heidi Hunter, directora de productos de IDologíauna empresa de GBG, para averiguarlo.

IDology ofrece un conjunto completo de soluciones de verificación de identidad, AML/KYC y gestión de fraude para ayudar a las empresas a generar ingresos, disuadir el fraude y mantener el cumplimiento. Fundada en 2003, IDology hizo su debut en Finovate en 2012. GBG adquirió la empresa en 2019.
La Sra. Hunter se unió a GBG Americas en 2011 y ha trabajado tanto en innovación de productos como en roles de éxito del cliente durante su carrera en la empresa. Aporta más de 13 años de experiencia apoyando a los clientes y ayudándolos con sus necesidades comerciales a través de funciones de innovación, soporte e implementación de productos.
Actualmente, la Sra. Hunter es responsable de impulsar la hoja de ruta de productos de la empresa y de aportar nuevas innovaciones al mercado de verificación de identidad a través del desarrollo estratégico de productos.
La IA ha planteado desafíos y oportunidades en lo que respecta al fraude y los delitos financieros. ¿Cuáles son los principales desafíos que enfrentan las instituciones financieras?
Heidi cazador: Hay cuatro áreas principales de preocupación: ciberseguridad y fraude, modelos sesgados, supervisión humana y cumplimiento normativo.
Deloitte ha escrito sobre la creciente preocupación por la IA como amenaza de ciberseguridad y fraude, señalando que el 51% de los ejecutivos entrevistados cree que las vulnerabilidades de ciberseguridad de la IA son una preocupación importante. Un problema es el de que haya más y mejores documentos falsos. La IA simplificará la creación de pasaportes, licencias de conducir y documentos de identidad que son prácticamente indistinguibles de los auténticos. Otro problema aquí es el aumento del fraude de identidad sintética. La IA generativa es una herramienta de productividad para los estafadores, que crea identidades sintéticas muy realistas a escala.
Además, existe un phishing y una ingeniería social más eficaces. Un estudio reciente de 1.000 tomadores de decisiones encontró que el 37% había experimentado fraude de voz deepfake. Y la IA generativa se utiliza para impulsar un aumento de las tácticas de phishing.
También mencionaste modelos sesgados, supervisión humana y cumplimiento.
Cazador: El uso de algoritmos de inteligencia artificial y aprendizaje automático (ML) ha sido objeto de escrutinio debido a preocupaciones sobre el sesgo de los datos, la transparencia y la responsabilidad. Con respecto a la supervisión humana, el 88 % de los consumidores informaron que interrumpirían un útil servicio de personalización si no entendieran cómo se gestionarían sus datos.
La falta de supervisión humana también es una preocupación regulatoria. La IA a menudo carece de transparencia, lo que deja a las empresas expuestas cuando deben explicar sus decisiones, lo que ha generado expectativas de regulación futura. Los deepfakes generados por IA avanzan rápidamente y los responsables políticos no pueden seguir el ritmo.
¿Puede la misma tecnología que permite a los estafadores permitir también a las instituciones financieras frustrarles?
Cazador: Sí, especialmente cuando la IA se combina con la inteligencia humana. La IA se beneficia de los expertos encargados de supervisar los datos entrantes y salientes. Un analista de fraude capacitado que acompañe a las soluciones basadas en inteligencia artificial puede detectar tendencias de fraude nuevas y establecidas. Esto incluye amenazas novedosas que las soluciones de IA por sí solas pueden pasar por alto.
Desde una perspectiva de cumplimiento, esto significa que las empresas pueden ofrecer una solución más transparente y gestionar posibles sesgos. La IA supervisada puede eliminar la necesidad de verificar manualmente una identificación y ayudar a proporcionar la explicación necesaria para los requisitos normativos y de cumplimiento.

La automatización juega un papel importante en la IA. También lo hace la supervisión humana. ¿Puedes hablar sobre la relación entre la IA y la automatización?
Cazador: La automatización suele estar basada en reglas y sigue instrucciones predeterminadas, mientras que la IA puede aprender de los datos y tomar decisiones basadas en esos datos. En otras palabras, el software de automatización opera con un conjunto de reglas predefinidas, mientras que la IA puede hacer predicciones y decisiones basadas en los datos que se le presentan. El aspecto de «predicciones» de la tecnología basada en IA y ML es donde la supervisión humana juega un papel tan importante.
¿Cuál es el equilibrio adecuado entre la supervisión humana y la IA? ¿Qué papel tienen los humanos en un mundo cada vez más impulsado por la IA?
Cazador: Como ocurre con cualquier herramienta, la IA supervisada por humanos es excelente cuando forma parte de una estrategia más amplia de verificación de identidad (IDV).
Los humanos tienen un papel en cada «etapa» del uso o implementación de la IA: en el desarrollo, en términos de qué datos se utilizan para entrenar un modelo; durante el despliegue, dónde se utiliza una herramienta basada en IA y en qué medida; y cuando se trata de responsabilizar a las herramientas basadas en IA. Esto significa analizar un resultado determinado y qué decisiones toma una IF en función de ese resultado.
Específicamente para la verificación de identidad, ¿cómo ha ayudado la IA supervisada por humanos a resolver problemas?
Cazador: Los consumidores también ponen el listón alto para lograr interacciones fluidas. Por ejemplo, el 37% de los consumidores abandonó un proceso de incorporación digital porque consumía demasiado tiempo. Superar este desafío requiere una estrategia integral. La IA supervisada por humanos puede desempeñar un papel fundamental en el proceso, ya que puede examinar rápidamente grandes volúmenes de datos digitales para descubrir patrones de actividad sospechosa y, al mismo tiempo, proporcionar información y transparencia sobre cómo se toman las decisiones.
¿Están las empresas adoptando la IA supervisada por humanos? ¿Qué obstáculos quedan para una adopción más amplia?
Cazador: Sí, porque si bien hay mucho entusiasmo en torno a lo que la IA puede hacer, varias empresas y personas de la comunidad académica creen que la IA no está preparada para tomar decisiones sin supervisión. Como se mencionó anteriormente, las empresas muestran preocupación por el hecho de que la IA funcione por sí sola. Las preocupaciones van desde cuestiones éticas hasta riesgos de ciberseguridad y fraude, pasando por tomar una mala decisión comercial basada en la IA. Como nota positiva, las empresas son cada vez más conscientes de los beneficios de los modelos de aprendizaje supervisado.
Foto del estudio Cottonbro.