Las herramientas de productividad empresarial están entrando en una nueva fase. En lugar de simplemente automatizar flujos de trabajo predefinidos, plataformas como el concepto emergente Copilot CoWork de Microsoft prometen algo más ambicioso: agentes de IA capaces de realizar tareas complejas de varios pasos en herramientas como Microsoft 365.
Estos sistemas representan un cambio de la automatización a la delegación. En lugar de definir cada paso de un proceso, los trabajadores describen un resultado y los agentes determinan cómo lograrlo: enviar correos electrónicos, actualizar documentos, ajustar permisos o coordinar entre aplicaciones.
El artículo continúa a continuación.
Vicepresidente de I+D de IA y ciberseguridad en ProCircular.
Para los equipos de gobierno y seguridad empresarial, la IA agente plantea una pregunta fundamental: ¿Qué sucede cuando el sistema que toma decisiones operativas no es un ser humano o incluso una pieza de software tradicional, sino un agente autónomo que actúa en nombre del ser humano?
El problema del “check-in con mi gente”
Muchos sistemas basados en agentes intentan reducir el riesgo mediante un enfoque “humano en el circuito”. Cuando la IA llega a un punto de decisión, se detiene y solicita al usuario que apruebe el siguiente paso.
En teoría, esto introduce supervisión. En la práctica, puede que introduzca muy poco.
El modelo de “registro con mi gente” es a menudo un compromiso de UX disfrazado de característica de seguridad. Los empleados que delegaron flujos de trabajo a un agente de IA lo hicieron porque ya estaban sobrecargados. Cuando el sistema los interrumpe con un mensaje de aprobación, el resultado potencial no se revisa cuidadosamente: es un rápido sello de aprobación.
Hemos visto este comportamiento antes. La mayoría de los usuarios hacen clic en el banner de consentimiento de cookies sin leerlo. La misma IA dinámica se aplicará a los check-ins
Una supervisión significativa requiere que el revisor comprenda lo que hizo el agente, por qué tomó una decisión y cuáles podrían ser las consecuencias posteriores. Ese nivel de escrutinio contradice directamente la razón por la que al empleado se le asignó el trabajo en primer lugar.
Para operaciones de bajo riesgo, este enfoque puede ser suficiente. Pero la primera vez que un agente realiza una acción irreversible que nadie ha revisado realmente, las organizaciones descubrirán cuán frágil es este modelo de seguridad.
Cuando la acción de la IA desdibuja la responsabilidad
La IA agente también desafía uno de los supuestos centrales de los marcos de gobierno empresarial: que las acciones en un sistema son claramente atribuibles a un usuario humano.
Herramientas como Copilot Cowork desdibujan esa línea y crean una gran brecha de responsabilidad. Cuando un agente de IA envía un correo electrónico o modifica los permisos de SharePoint, ya no está claro si el empleado, la IA o la plataforma de productividad es responsable de ese cambio. La mayoría de los marcos de gobernanza no están diseñados para un mundo en el que el software toma decisiones de forma autónoma sobre la marcha.
Hoy en día, los registros de auditoría suponen un vínculo directo entre la identidad de un usuario y una acción realizada dentro del sistema. Cuando un agente de IA actúa de forma autónoma en nombre de un usuario, esa relación se vuelve turbia.
Para gestionar este riesgo, las organizaciones deberían tratar a los agentes de IA empresarial menos como funciones de software y más como trabajadores digitales.
Esto significa darles:
– su propia identidad
– Permiso con alcance claro
– Registro y seguimiento independientes
– Borrar el rastro de auditoría
Sin estos controles, será difícil (o imposible) reconstruir rápidamente las investigaciones de cumplimiento.
IA agente frente a automatización tradicional
Parte del desafío proviene de cuán fundamentalmente diferente es la IA agente de la automatización tradicional.
Herramientas como Power Automate o Zapier funcionan mediante flujos de trabajo deterministas. Los ingenieros definen cada paso de un proceso y la lógica que los conecta. Cuando se activa, la automatización ejecuta esos pasos de la misma manera cada vez.
Este modelo es predecible y auditable.
La IA agente cambia ese modelo por completo.
En lugar de escribir un guión para cada acción, los usuarios describen los resultados deseados. La IA enruta dinámicamente y toma decisiones basadas en el contexto.
Esto abre la puerta a la automatización de tareas que antes no se podían automatizar: tareas que son confusas, ambiguas o que dependen de juicios situacionales.
Pero introduce variabilidad e imprevisibilidad. Dos ejecuciones de la misma solicitud pueden tomar caminos diferentes según el contexto.
Las organizaciones no deberían apresurarse a reemplazar sus procesos de automatización existentes con sistemas agentes. La automatización tradicional todavía destaca en tareas repetibles y deterministas.
El mejor enfoque es aplicar IA agente a flujos de trabajo que no eran prácticos de automatizar en primer lugar.
Dónde las empresas pueden utilizar la IA agente hoy
A pesar de los riesgos, las herramientas de productividad agentes son realmente interesantes. Si se utilizan con cuidado, pueden reducir la fricción en el trabajo del conocimiento y liberar a los empleados de gastos administrativos.
Hoy en día, las aplicaciones más seguras tienden a ser tareas de bajo riesgo pero que requieren mucho tiempo, como por ejemplo:
– Elaboración de briefings de reuniones.
– Resumen de actualizaciones del proyecto entre equipos.
– Redacción de comunicaciones rutinarias de seguimiento.
– Integración de información de múltiples flujos de trabajo.
Estas son tareas que a menudo quedan a medio hacer, o completamente sin hacer, porque a los empleados simplemente se les acaba el tiempo.
Los agentes de IA pueden llenar esos vacíos de manera efectiva.
Sin embargo, las organizaciones deben resistir la tentación de llevar los sistemas agentes a flujos de trabajo de altas consecuencias demasiado rápido.
Hasta que las plataformas puedan proporcionar observabilidad real, gobernanza ejecutable y reversiones confiables, las organizaciones deben trazar una línea dura. Y hasta que eso suceda, hay ciertos dominios que deberían estar fuera del alcance de la IA agente:
• Todo lo relacionado con el cumplimiento o las obligaciones de auditoría.
• Flujos de trabajo de presentación y presentación de informes reglamentarios
• Autorización financiera, transacción o autoridad presupuestaria.
• Decisiones de recursos humanos y personal: contratación, despido, medidas disciplinarias.
• Control de acceso, permisos y gobierno de datos
Si su agente de IA puede autorizar una transferencia bancaria o cambiar los controles de acceso sin que un humano esté al tanto, básicamente ha creado una persona que toma decisiones sin supervisión y con privilegios de administrador.
Gardel aún no ha sido atrapado
El potencial de la IA agente es enorme. Pero en este momento, la mayoría de las organizaciones se centran en lo que estas herramientas pueden hacer, no en cómo deben utilizarse. Y no es que no hayamos visto esta película antes. Cada ola tecnológica importante de las últimas tres décadas (aplicaciones web, BYOD, nube, robots/automatización con secuencias de comandos) ha seguido el mismo arco: adopción rápida, gobernanza retrasada y luego revisiones dolorosas.
Pero la diferencia con la IA agente es que todas eran herramientas deterministas. Luego las herramientas hicieron lo que les dijeron. La IA agente no sigue estas reglas. Herramientas como Copilot Cowork explican, deciden y actúan. Dos mensajes idénticos pueden producir dos resultados diferentes que afectan al correo electrónico, los permisos y los flujos de trabajo antes de que cualquier persona pueda revisarlos. Combine eso con la curva de adopción empresarial más rápida que jamás hayamos visto (impulsada por Microsoft que incorpora estas capacidades directamente en las herramientas que la gente ya usa) y el radio de explosión es significativamente mayor.
A medida que los flujos de trabajo basados en agentes crecen, la conversación debe girar drásticamente hacia la observabilidad, la responsabilidad y la gobernanza. Las empresas que tratan a los agentes de IA como empleados de confianza, con identidad, permisos y auditabilidad, estarán en una posición mucho mejor que aquellas que los tratan como otros atributos de productividad.
La productividad por sí sola significa que herramientas como Copilot Cowork llegaron para quedarse. Las organizaciones inteligentes no esperan a que algo se rompa para descubrir cómo gobernarlas.
Hemos clasificado las mejores soluciones de gestión de identidad..