- BeyondTrust Phantom Labs encontró fallas críticas en la inyección de comandos en el códec ChatGPT de OpenAI
- La vulnerabilidad permite a los atacantes robar tokens GitHub OAuth a través de un nombre de rama malicioso
- OpenAI ha sido parcheado con una validación de entrada más sólida, escape de shell y control de tokens
Los expertos afirman que el códice ChatGPT de OpenAI conlleva una vulnerabilidad crítica de inyección de comandos que permite a los actores de amenazas robar tokens de autenticación confidenciales de GitHub.
Esto es según el brazo de investigación de BeyondTrust, Phantom Labs, cuyo trabajo ayudó a OpenAI a identificar y corregir la falla.
ChatGPT Codex es una función de codificación dentro del popular chatbot que ayuda a los usuarios a escribir y editar software mediante instrucciones en lenguaje sencillo. Los usuarios pueden convertir solicitudes en lenguaje humano en código de trabajo o, de manera similar, sugerir correcciones y mejoras.
El artículo continúa a continuación.
Cómo gestionar agentes de IA
Cuando un desarrollador realiza cambios en un proyecto de GitHub, lo hace en su propia copia, que es una rama separada del proyecto. Ahora, según BeyondTrust Phantom Labs, el problema surge de la forma en que Codex procesa los nombres de las ramas durante la creación de tareas.
Aparentemente, la herramienta permite a un actor (malicioso) manipular parámetros de rama e inyectar comandos de shell arbitrarios mientras configura el entorno.
Estos comandos pueden ejecutar cualquier código dentro del contenedor, incluidos los maliciosos. Phantom Labs dijo que pudo extraer tokens de GitHub OAuth de esta manera, obteniendo acceso a un proyecto teórico de terceros y usándolo para mover los tokens lateralmente dentro de GitHub.
Lamentablemente, la situación empeora. La interfaz de línea de comandos de Codex, el SDK y la integración del entorno de desarrollo tenían fallas similares, y los investigadores dijeron que al incorporar malware en los nombres de las ramas de GitHub, podrían comprometer a numerosos desarrolladores que trabajan en el mismo proyecto.
Después de publicar responsablemente los resultados en OpenAI, la compañía abordó el problema con una validación de entrada mejorada, una protección más sólida contra el escape del shell y un mejor control sobre la exposición de los tokens dentro del contenedor. Se dijo que el alcance y la vida útil del token también estaban limitados en el momento de la creación de la tarea.
Los agentes de codificación de IA son “entornos de ejecución en vivo con credenciales confidenciales y acceso a recursos organizacionales”, concluyeron los investigadores.
“A medida que estos agentes operan de forma autónoma, los equipos de seguridad deben comprender cómo controlar las identidades de los agentes de IA para evitar la inyección de comandos, el robo de tokens y las vulnerabilidades automatizadas a escala. A medida que los agentes de IA se integran más profundamente en los flujos de trabajo de los desarrolladores, los contenedores que ejecutan (y las entradas que consumen) deben considerarse seguridad”.
El mejor antivirus para todos los bolsillos
Siga TechRadar en Google News Y Agréganos como fuente preferida Obtenga nuestras noticias, reseñas y opiniones de expertos en su feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy