Una palabra resume la situación actual de la industria del software: caos. Iba a escribir “ser el título”, pero habría sido correcto hace seis meses. Ya está aquí.
La codificación con IA abarató el cambio de cualquier software que quisiera, por lo que todos comenzaron a cambiar todo al mismo tiempo: infraestructura, herramientas internas, API, modelos de seguridad, canalizaciones de CI e incluso superficies completas de productos.
El artículo continúa a continuación.
CEO y cofundador de Telscale.
En los últimos años, la conversación más ruidosa sobre seguridad de la IA ha sido sobre los empleados que pegan datos confidenciales en chatbots. Es una preocupación real y merece atención, pero no es el tema que definirá la próxima ola de eventos, porque el verdadero cambio no es la IA. Es la IA la que hace el trabajo.
Los asistentes de codificación ahora abren solicitudes de extracción y los agentes fusionan sucursales, archivan tickets, activan trabajos de CI, consultan bases de datos y llaman a API internas. En un número cada vez mayor de organizaciones, estos sistemas ya no son experimentales. Son parte de cómo se realiza el trabajo.
Esto cambia la categoría de riesgo: la “IA en la sombra” deja de ser una cuestión de política y se convierte en una cuestión de acceso privilegiado.
Una vez que un agente puede actuar, la pregunta es “¿Alguien pegó algo incorrecto en el mensaje?” Se trata de “¿Quién hizo qué, utilizando qué credenciales y bajo qué autoridad?”. La mayoría de las organizaciones todavía no pueden responder con claridad.
El verdadero problema no es la velocidad. es un bypass
Un marco común es que los equipos de seguridad están rezagados en la adopción de la IA. Una versión más precisa es que están siendo ignorados. La adopción de la IA avanza a la velocidad del producto, mientras que la revisión de la seguridad avanza a la velocidad de la organización. Cuando ambos chocaron, el comportamiento predeterminado de la industria era predecible: los barcos primero, los regímenes después.
Lo “más tarde” generalmente ocurre durante la respuesta al incidente, cuando descubre que sus registros pueden indicarle que el “bot” hizo algo, pero no pueden decirle de manera confiable quién lo inició, qué políticas se evaluaron o qué restricciones de alcance deberían haberse aplicado.
Estamos creando flujos de trabajo que pueden tomar acciones poderosas y luego actuamos sorprendidos cuando no podemos explicar esas acciones.
Esta es la parte que debería preocupar a los líderes, no porque la IA sea misteriosa, sino porque hace que sea más fácil repetir viejos errores a gran escala. Todos hemos pasado años intentando eliminar las credenciales compartidas y la propiedad ambigua. Los flujos de trabajo agentes tienen el talento de regenerar ambos.
Un patrón familiar: la demostración funciona, luego la seguridad la ve
Aquí hay un patrón que he visto varias veces y que nunca parece ser un truco.
Un equipo crea un prototipo de un agente para acelerar la ingeniería. Comienza inocentemente: lee el ticket, propone un cambio de código, abre PR. Uno agrega la capacidad de llamar a las herramientas internas como “un paso más” y, de repente, los agentes pueden tocar GitHub, CI y la implementación.
Las credenciales son simples: un token compartido, una cuenta de servicio, una clave API guardada en un almacén secreto
Envíalo. Todo el mundo está contento. El trabajo va rápido.
Luego, alguien del lado de seguridad mira más de cerca y cada persona con experiencia en seguridad tiene la misma reacción cuando se topa con una certificación integral y duradera de automatización robusta: “¿En qué estabas pensando?”
Ese momento es importante. No es que la seguridad odie las herramientas de inteligencia artificial. Es que la seguridad comprende una regla básica que todos los demás intentan ignorar temporalmente: la acción requiere responsabilidad. Si no puedes saber quién autorizó una acción, ciertamente no puedes afirmar que la controlas.
En el mejor de los casos, el equipo hace una pausa, dirige al agente a través de una ruta de acceso adecuada, determina sus permisos y agrega una atribución real. En el peor de los casos, el agente está asociado “temporalmente”, un término que puede significar cualquier cosa, desde un día hasta la muerte por calor cósmico.
El código barato amplía las identidades confusas
Hemos visto esta película antes. Cuando las máquinas virtuales se volvieron más fáciles, extendimos los servidores. Cuando el almacenamiento en la nube se volvió más barato, obtuvimos depósitos públicos. Cuando la CI se convirtió en autoservicio, tuvimos tuberías que nadie entendía del todo. Ahora el código es barato, por lo que la integración se expande a continuación.
Los agentes se conectan mediante GitHub, CI, emisión de tickets, bases de datos y API internas utilizando cualquier credencial que tengan a mano. A menudo, esto significa variables de entorno, archivos de configuración o tokens de larga duración almacenados en los puntos finales.
A veces esas fichas pertenecen a personas. En ocasiones son cuentas de servicios compartidos. A veces son claves “temporales” que sobreviven a tres reconstrucciones.
Funciona hasta que deja de funcionar. Un agente en funcionamiento continuo con una credencial de amplio alcance es efectivamente una persona privilegiada que trabaja a la velocidad de la máquina. Hará exactamente lo que le permiten sus permisos y lo hará de forma más consistente que un humano cansado a las 2 de la madrugada. Si su modelo de acceso está mal, la IA no lo solucionará. Escalará.
La industria está apurada en este momento. Se están reescribiendo las hojas de ruta en torno a “la IA primero” y los equipos están reconstruyendo los flujos de trabajo porque los modelos lo hacen posible, no necesariamente cognitivo. La prisa crea actividad, pero no crea coherencia.
A toda prisa, los equipos otorgan un amplio permiso para hacer que una demostración funcione, descargan las claves del proveedor en los puntos finales porque es conveniente y posponen el diseño de identidad porque parece una plomería.
Pero la plomería es lo que mantiene el edificio en funcionamiento.
Un principio que hace que valga la pena vivir el resto
Existe un principio general que debería impulsar la gobernanza de la IA: para que un sistema de IA entre en acción, necesita una identidad propia.
Ni una cuenta de servicio compartida, ni una clave API humana copiada, ni un token estático en un archivo de configuración. Una identidad real y controlada. Esa identidad debe utilizar credenciales de corta duración, tener permisos de alcance estricto y evaluarse según la política en el momento de cada llamada a la herramienta.
Cada acción también debe atribuirse a una intención conocida del usuario o de la carga de trabajo, de modo que pueda aplicar el control del tiempo de decisión en lugar de reconstruir la intención post mortem.
Esto lo empuja a estandarizar cómo los agentes llegan a su sistema. Centralice el acceso a través de una ruta autorizada en lugar de diez integraciones ad hoc que florecen en paralelo. Mantenga las claves del proveedor lo más lejos posible de los puntos finales. Trate las llamadas a herramientas como cambios de producción, porque en realidad lo son.
El plano de control no se mueve porque la interfaz está aplanada.
Una revisión de la página de las 3 am
Si solo recuerdas una cosa, haz esto: la IA no inventó un nuevo problema de seguridad. Funciona rápido por un antiguo problema de seguridad.
El viejo problema es el poder no contabilizado. Practique la distribución de certificados entre puntos finales. Confía en que podrás limpiar más tarde. Llevamos veinte años intentando erradicarlo y vuelve cada vez que una nueva ola de herramientas hace que los atajos vuelvan a parecer perjudiciales.
De modo que puede ejecutar esta prueba la próxima vez que alguien proponga conectar un agente a un sistema adyacente a la producción. Imagínese la página a las 3 am. algo sucedió. El registro dice que lo hizo un agente. La empresa se pregunta qué salió mal.
¿Puedes responder de forma clara y segura quién autorizó esa acción y por qué el sistema lo permitió?
Si no puede, no tiene un programa de IA. Tienes un generador de caos con una interfaz de usuario decente.
Controla a los gremlins ahora, mientras las integraciones son jóvenes y los hábitos aún se están formando. Los regímenes de modernización serán posibles más adelante. Es lo más caro posible.
Hemos presentado el mejor creador de sitios web con IA.
Este artículo se creó como parte del canal Expert Insights de TechRadarPro, donde destacamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: