Desde hace varios años, la IA aparece como acelerador en el fraude. Redactó correos electrónicos de phishing, pulió scripts de ingeniería social y ayudó a los atacantes a moverse más rápido. El operador humano todavía estaba sentado cerca de cada paso significativo.
Pero esa distancia se está reduciendo muy rápidamente. En septiembre de 2025, el código en la nube de Anthropic se utilizó en operaciones de ciberespionaje, mientras que la IA llevó a cabo entre el 80 y el 90 % de las operaciones tácticas en aproximadamente 30 objetivos.
Unos meses más tarde, un informe de violación del gobierno mexicano describió una configuración de código de nube con jailbreak que, según Gambit Security, robó más de 150 GB de datos y expuso alrededor de 195 millones de identidades.
El artículo continúa a continuación.
Esta es la verdadera ruptura con el pasado. Ahora vemos a la IA no como un asistente dentro de un flujo de trabajo criminal, sino como un sistema de contramedidas que puede manejar grandes partes del flujo de trabajo en sí.
La cara del cibercrimen ha cambiado
Una vez que un agente tiene las herramientas, el contexto y los permisos, el cibercrimen parece una operación siempre activa. Puede reconstruir objetivos, escribir exploits, recopilar credenciales, moverse lateralmente y empaquetar datos robados a la velocidad de la máquina.
Esto es importante porque esas capacidades ahora son parte del entorno de amenazas real. Los ataques de adversarios habilitados para IA aumentaron un 89% año tras año, y la adopción de IA autónoma está creciendo a pesar de las preocupaciones de seguridad.
Estamos siendo testigos del escenario para la próxima ola de fraude: los agentes irrumpen en los sistemas convencionales al mismo tiempo que los atacantes aprenden a construir sus armas.
Al fraude le gusta la escala, la repetición y la mala supervisión. Los sistemas agentes aportan los tres. No se cansan y olvidan el libro de jugadas. Pueden conducir a miles de pequeñas decisiones que suman enormes pérdidas.
La atribución está empezando a fallar
Las propiedades tradicionales se basan en fórmulas familiares. Los investigadores comparan rutas de IP, familias de malware, dominios, infraestructura y otros indicadores de compromiso, aunque el campo sabe desde hace mucho tiempo que los servidores proxy, las falsas banderas y las herramientas compartidas pueden oscurecer esa imagen.
La IA agente empeora el problema porque la extracción operativa ya no está claramente ligada a las manos de un solo ser humano. El modelo puede generar código nuevo, adaptar la secuencia de tareas o distribuir tareas entre herramientas y sesiones. En el caso de México, había un atacante desconocido ayudado por herramientas de inteligencia artificial, y este tipo de ambigüedad debería preocupar a todos los defensores.
Entonces, no es que los humanos desaparezcan, sino que la responsabilidad se distribuye entre indicaciones, modelos, herramientas, permisos delegados y acciones generadas por máquinas. Y socava el viejo consuelo de que la atribución eventualmente se afianzará. Los rastros forenses ahora tienen un operador no humano que realiza movimientos importantes dentro de la cadena de ataque.
Debe viajar con un agente de identidad.
Cada acción significativa de la IA debe llevar una identidad criptográfica verificable. Una vez que un agente de IA puede actuar dentro de un sistema, esas acciones no deberían ser anónimas. Cada uno debe estar firmado, vinculado a una identidad verificable y capturado en una pista de auditoría confiable. Además, pedimos a los equipos de seguridad que manejen comportamientos autónomos que no dejen evidencia confiable de autoría.
La idea no es marginal y aquí está. El NIST lanzó una Iniciativa de Estándares para Agentes de IA en febrero. Su documento conceptual exige explícitamente identificar agentes, vincular las identidades de los usuarios con las acciones asignadas, registrar la actividad de los agentes y rastrear el origen de las indicaciones y las entradas de datos.
Ahora, este mercado ya nos está diciendo por qué esto es importante: el 68% de las organizaciones no pueden separar claramente la actividad de los agentes de IA de la actividad humana, incluso cuando el 73% espera que los agentes adquieran importancia dentro de un año. Y esta no es una brecha de gobernanza menor, es una responsabilidad directa en cualquier entorno donde se pueda cometer fraude, uso indebido o robo de datos a través de un agente.
Lo difícil no es la criptografía, sino la gobernanza
Ya sabemos cómo firmar y verificar artefactos digitales. Las firmas vinculadas a la procedencia, la integridad y la identidad se pueden utilizar a escala. El paso que falta es ampliar la cadena de operaciones que realizan los agentes después de la implementación a partir de modelos y artefactos de software.
No será fácil. Los estándares deben funcionar en laboratorios de modelos, pilas empresariales, herramientas de código abierto, puertas de enlace API y protocolos de agentes. Las cuestiones de privacidad también son reales, ya que la auditabilidad no puede convertirse en una puerta trasera a la vigilancia generalizada.
Aún así, esas son cuestiones de diseño y no una excusa para el anonimato. Lo que creo que falta es una capa de verificación de identidad que permita a las personas, las organizaciones y, en última instancia, a los agentes de IA demostrar quiénes son, qué pueden hacer y en qué credenciales se puede confiar, sin revelar los datos sin procesar que se encuentran debajo. Bien construidos, estos sistemas dan a la confianza una forma criptográfica. Puede moverse entre plataformas, evitar traspasos entre sistemas y mantenerlo bajo escrutinio.
Cuando la gestión de la identidad es débil, el fraude se propaga y la innovación fracasa. Si el acceso, la elegibilidad y las acciones de alto riesgo están vinculados a credenciales verificables, resulta mucho más difícil para un bot, una identidad sintética o un agente autónomo atravesar el sistema con simples afirmaciones. Las acciones llevan consigo la historia. Las señales de confianza también.
El fraude con IA ha cruzado un umbral. Cuando un agente puede explorar, decidir, ejecutar y documentar la operación, el anonimato se convierte en una debilidad estructural más que en una ventaja.
Necesitamos un modelo de seguridad que haga más que registrar lo que sucedió después del incidente. Necesitamos a alguien que pueda demostrar quién estuvo detrás de una acción, quién la asignó y, en primer lugar, si se puede confiar en esa identidad. En un mundo de agentes autónomos, esto ya no es una salvaguardia elegante, sino la base para mantener el fraude manejable.
Hemos clasificado la mejor protección contra el robo de identidad..
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: