¿Recuerdas a finales de la década de 2000, cuando los teléfonos inteligentes personales comenzaron a aparecer en entornos empresariales? Los empleados conectaban dispositivos personales al Wi-Fi corporativo, sincronizaban el correo electrónico del trabajo con iPhones y accedían a sistemas internos desde hardware que el equipo de seguridad nunca había tocado y sobre el que no tenía autoridad.
Director de estrategia de datos en Forcepoint.
He pasado más de 20 años en esta industria y he visto repetirse el mismo patrón en diferentes tecnologías, con una confiabilidad frustrante. TI en la sombra. Nubes dispersas. Ahora Agente de IA.
El guión es idéntico. Desafortunadamente, esta vez hay mucho más en juego.
problema 82 a 1
Las identidades no humanas ahora superan en número a los usuarios humanos en entornos empresariales 82 a 1, según el informe Identity Crisis de Rubric Zero Labs publicado en 2025.
Esto significa que por cada empleado que su equipo de TI aprovisionó cuidadosamente, tendrá 82 identidades de máquinas en todo su entorno. Y a diferencia de los empleados, la mayoría de las identidades de estas máquinas no son revisadas por seguridad ni vinculadas a un humano responsable al que se pueda interrogar si algo sale mal.
Cuando una organización implementa un agente de IA, no crea una identidad única. Esto crea una cascada. Uno por herramienta a la que se conecta el agente, una API a la que llama, una por fuente de datos. Estas identidades se acumulan más rápido que cualquier mecanismo de gobernanza que pueda rastrear a los usuarios humanos.
Muchas organizaciones con las que hablo no pueden responder la pregunta más básica sobre sí mismas: ¿quién las autorizó? ¿Tienen permiso? ¿Pueden acceder a información sensible? ¿Qué están haciendo ahora?
La respuesta honesta es que, en la mayoría de los casos, nadie lo sabe.
Por qué sus controles existentes no lo salvarán
La IA agente es un paso significativo más allá de las herramientas de IA generativa que los equipos de seguridad todavía están trabajando para administrar. En lugar de responder a un único mensaje, un agente razona, planifica y actúa.
Lo hace a través de múltiples herramientas, fuentes de datos e integraciones de aplicaciones con una mínima participación humana en cada paso. Le das al agente una meta, no una instrucción, y él determina cómo llegar allí.
Esa autonomía es el diferenciador clave que hace que estos sistemas sean valiosos. Eso es precisamente lo que hace que la brecha de seguridad sea tan peligrosa.
Cuando un ser humano toma una decisión sobre datos (enviar un archivo, buscar en una base de datos, exportar un informe), existen al menos algunos puntos de control cognitivos, por imperfectos que sean. Los agentes pasan por alto ese punto de control por completo.
Trabajan a velocidad de máquina. Las organizaciones de control estáticas y basadas en reglas han pasado años ajustando el comportamiento humano y no fueron diseñadas para una entidad que puede interactuar con una API, leer un depósito de almacenamiento en la nube, resumir hilos de correo electrónico y enviar resultados a un servicio externo en el tiempo que le toma a un humano abrir una pestaña del navegador.
El antiguo binario “bloquear o permitir” no funciona cuando un agente de IA toma cientos de decisiones de datos por minuto. Y debajo de eso se esconde un problema difícil: la inyección rápida.
Una instrucción maliciosa oculta en una página web, documento o correo electrónico que un agente recupera puede provocar que el agente realice acciones no autorizadas porque interpreta la instrucción como válida. El agente ha sido manipulado. No lo sabe. Y no se lanzaron advertencias, porque nada activó una regla.
Cómo se ve realmente una respuesta creíble
Las organizaciones que naveguen bien en esto lo tratarán como el problema BYOD que finalmente resolvieron: estableciendo marcos de gobernanza antes de que la escala se vuelva inmanejable.
Deben suceder tres cosas.
Primero, inventario. No puedes gestionar lo que no puedes ver. El paso fundamental es crear una imagen completa y precisa de los agentes que operan en su entorno (qué están autorizados a hacer, qué datos pueden tocar, quién los administró). Esto suena obvio. Casi nadie lo hizo.
En segundo lugar, la política de identidad debe cubrir claramente a los actores no humanos. Los marcos de gobernanza de acceso escritos para humanos no se extienden automáticamente a los agentes. La identidad de una máquina que opera con privilegios de nivel de administrador se somete a la misma verificación que un usuario humano con privilegios. La política requiere reflexión, no presunción de que ya existe.
En tercer lugar, el implementador debe adaptarse dinámicamente. Debido a que el comportamiento de los agentes cambia en tiempo real, las reglas estáticas escritas previamente no pueden seguir el ritmo. Los controles deben responder a lo que un agente está haciendo realmente en contexto, no solo a si sus credenciales se verifican durante el inicio de sesión.
La ventana es más pequeña de lo que parece.
Las organizaciones que construyan marcos de gobernanza de agentes ahora, aunque la adopción aún sea temprana y el entorno aún sea mapeable, tendrán una ventaja estructural.
Aquellos que esperan un incidente crítico se encontrarán haciendo lo que los equipos de seguridad invariablemente terminan haciendo después de que una tecnología mal administrada se expande sin supervisión: restaurar los controles de sistemas para los que nunca fueron diseñados.
Lo aprendimos con BYOD y nuevamente con la nube. Vamos a aprender esto una vez más con los agentes de IA. La única pregunta real es si empezamos antes o después de que algo salga mal.
Hemos presentado las mejores VPN empresariales.
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: