En 2025, los incidentes de fraude aumentaron, con un total de £629,3 millones robados por delincuentes solo en los primeros seis meses y 2,09 millones de incidentes confirmados, tanto autorizados como no autorizados.
En banca, seguros y gobierno, los equipos de prevención de fraude están redoblando su apuesta por la inteligencia artificial (IA) para contrarrestar una nueva generación de amenazas que evolucionan rápidamente.
Responsable de Soluciones de Fraude EMEA en Quantexa.
La IA tiene un enorme potencial: puede detectar patrones que los humanos pasan por alto, analizar miles de millones de registros al instante y reducir los falsos positivos.
Sin embargo, muchas organizaciones se enfrentan a una realidad frustrante: implementar más modelos no reduce automáticamente las pérdidas por fraude.
A esta tensión la llamamos la paradoja de la IA.
¿Qué es la paradoja de la IA?
La paradoja radica en la brecha entre el potencial teórico de la IA y su desempeño en el mundo real en el ámbito desordenado y de alto riesgo de los delitos financieros.
Varias tensiones clave definen esta desconexión. En primer lugar, existe un desajuste entre el volumen de datos y su relevancia. Aunque los datos agregados de transacciones son enormes, los eventos de fraude confirmados son estadísticamente raros, lo que dificulta el entrenamiento de modelos de alta precisión.
Al mismo tiempo, los propios estafadores están adoptando herramientas de inteligencia artificial. Con la IA generativa (GenAI), pueden adaptar rápidamente estrategias, falsificar identificaciones, documentos sintéticos y automatizar campañas de phishing a gran escala.
La velocidad se ha convertido en una ventaja importante. Sin embargo, priorizar la velocidad a menudo conduce a modelos de caja negra, con poca atención a la interpretabilidad. Si bien estos modelos pueden ser eficaces, las decisiones que no pueden justificarse ante los reguladores o investigadores se convierten rápidamente en un pasivo en lugar de un activo.
Por último, si bien la inversión en IA está aumentando, la forma en que se mide el desempeño sigue siendo un desafío. Señalar millones de eventos sospechosos es relativamente fácil; El valor real radica en priorizar las pequeñas cantidades que requieren intervención humana. La priorización inteligente reduce la carga de trabajo de investigación y saca a la luz los casos más complejos.
Este desafío se ve agravado por los datos fragmentados entre las organizaciones, a menudo limitados por silos regulatorios y operativos. La conexión de estas fuentes de datos brinda a la IA una visión más completa, mejora la toma de decisiones, aumenta la precisión y permite flujos de trabajo más eficientes.
GenAI: el gran acelerador
La IA puede ser neutral en principio, pero su accesibilidad en todas direcciones exacerba una paradoja fundamental. Se ha convertido en la última tecnología de doble uso.
Para los defensores, GenAI acelera la detección, agiliza la diligencia debida del cliente y descubre riesgos ocultos con una velocidad sin precedentes. Para los adversarios, se está utilizando como arma para ataques de ingeniería social, estafas automatizadas impulsadas por bots y la creación de identidades sintéticas que socavan la confianza digital.
A diferencia de las organizaciones reguladas, los delincuentes operan sin obstáculos. Herramientas como FraudGPT y WormGPT han reducido la barrera de entrada, permitiendo que incluso los actores poco calificados lancen ataques transfronterizos sofisticados a un costo mínimo.
Al mismo tiempo, las empresas quieren utilizar GenAI para buscar datos y resumir casos complejos. Para ello se requieren estructuras administrativas sólidas para reducir los prejuicios, proteger la confidencialidad y garantizar la interpretabilidad.
Una crisis intersectorial
El impacto de GenAI no se limita a un solo sector; Esto representa un cambio sistémico en la forma en que se crea y escala el fraude.
En la banca, esto permitió la rápida expansión de redes de cuentas mula y campañas de phishing, enmascarando la actividad criminal con identidades artificiales.
En el ámbito de los seguros, las redes de fraude organizadas falsifican siniestros completos, incluidos registros médicos e imágenes de accidentes, hasta un nivel de realismo que es cada vez más difícil de detectar.
Los sistemas del sector público enfrentan presiones similares, ya que los programas de impuestos y beneficios están dirigidos por individuos sintéticos que son creíbles pero respaldados por evidencia digital totalmente fabricada.
Superando la paradoja
Sin contexto, la IA permanece silenciosa, reactiva y débil. Para abordar esto, las organizaciones están recurriendo a la Inteligencia de Decisiones (DI), un enfoque que va más allá de la aplicación de la IA para incluir la comprensión contextual. Esto permite identificar relaciones y comportamientos que los modelos tradicionales suelen pasar por alto.
Al conectar puntos de datos, las organizaciones pueden realizar la resolución de entidades entre individuos, empresas y contrapartes, creando una visión unificada del riesgo. Esta visión holística respalda una toma de decisiones más informada y ayuda a detectar comportamientos sospechosos en múltiples puntos de contacto, incluidas redes de fraude fraudulento y redes de mulas que de otro modo permanecerían ocultas.
La interoperabilidad fortalece este enfoque al integrar los sistemas existentes con datos de terceros, cerrando las brechas que explotan los estafadores.
Es importante destacar que el contexto también resuelve el problema de la “caja negra”. Al proporcionar la justificación detrás de las alertas, la IA se vuelve más transparente e interpretable para investigadores y reguladores. Esto genera confianza, respalda la adopción generalizada y fortalece la eficacia de la IA para prevenir el fraude.
Progreso desde la paradoja
Ya no se trata de si se utilizará la IA, sino de quién la utilizará con mayor eficacia. Colocar más IA sobre los sistemas existentes no solo derrotará a los estafadores, sino que además tendrán acceso a las mismas herramientas.
Por sí sola, la IA es sólo una herramienta. Combinado con información contextual y detección a nivel de red, esto se convierte en una defensa. Para superar el fraude, las organizaciones deben ir más allá de los modelos aislados y empezar a analizar las redes, cómo las entidades se conectan, se comunican y evolucionan con el tiempo.
Esto significa integrar la IA con datos más completos y un mayor contexto para reducir los puntos ciegos y las vulnerabilidades que explotan los estafadores.
Hemos enumerado la mejor protección contra el robo de identidad de 2026: protección probada de Aura, IdentityForce, Experian y más.
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: