- El informe TrendAI encontró que el 67% de las empresas se ven presionadas a implementar GenAI a pesar de las preocupaciones de seguridad.
- Los riesgos clave incluyen la exposición de datos confidenciales, mensajes maliciosos, superficies de ataque ampliadas y abuso de código autónomo.
- Brechas de gobernanza: solo el 38 % tiene una política de IA, el 57 % dice que la IA evoluciona más rápido de lo que puede garantizarse y muchos carecen de visibilidad o mecanismos de cambio.
Las empresas se apresuran a integrar la inteligencia artificial generativa (GenAI) en sus procesos y operaciones, a pesar de conocer los riesgos que enfrentan y, para empeorar las cosas, muchas no están seguras de cómo avanzar y mitigar sus riesgos, lo que agrava el problema.
Un nuevo informe de TrendAI encuestó a 3.700 tomadores de decisiones empresariales y de TI en 23 países y encontró que la mayoría (67%) está presionando para aprobar la integración de la IA a pesar de las preocupaciones de seguridad.
Uno de cada siete (alrededor del 15%) describió estas preocupaciones como “extremas”, pero aún así aprobó el despliegue.
El artículo continúa a continuación.
No por falta de conciencia
El informe describe numerosos riesgos asociados con las herramientas de inteligencia artificial que mantienen despiertos a los empresarios. Para dos de cada cinco, el mayor riesgo es que los agentes de IA accedan a datos confidenciales, mientras que a un tercio (36%) le preocupa que las indicaciones maliciosas comprometan la seguridad.
Los agentes de IA son programas que permiten a la IA controlar aplicaciones o incluso computadoras enteras. Las indicaciones maliciosas, compartidas a través de correos electrónicos de phishing, por ejemplo, pueden permitir que los agentes de IA envíen datos confidenciales a grupos de piratas informáticos, cambien la configuración de las aplicaciones o incluso descarguen malware.
Para un tercio de los encuestados (33%), la IA crea una superficie de ataque cada vez mayor que los delincuentes pueden aprovechar. El mismo porcentaje teme el abuso del estado confiable de la IA y los riesgos asociados con la implementación de código autónomo.
“Las organizaciones no carecen de conciencia del riesgo, carecen de las condiciones para gestionarlo. Cuando la implementación está impulsada por presiones competitivas en lugar de madurez de gestión, se crea una situación en la que la IA está integrada en sistemas críticos sin los controles necesarios para operarla de forma segura”, afirmó Rachel Jean, directora de plataforma y negocios de TrendAI.
La gestión y la gobernanza son más difíciles de lo que parece, al menos con la IA. Más de la mitad (57%) de la IA avanza más rápido de lo que puede garantizarse. Esto significa que, tan pronto como se establece un sistema, surgen nuevos riesgos potenciales que obligan a los defensores a reevaluar su posición. Es más, el 55% reportó solo una confianza moderada en su comprensión de los marcos legales de IA, y solo un tercio (38%) cuenta actualmente con políticas integrales de IA.
Regulación y Cumplimiento
Finalmente, dos de cada cinco (41%) consideran que las regulaciones y los estándares de cumplimiento poco claros son barreras para el progreso. Esta forma de pensar crea una trampa para las organizaciones, ya que utilizan “IA en la sombra”, herramientas no aprobadas sobre las que los defensores no tienen conocimiento. Por lo tanto, no saben qué se comparte ni qué datos se envían a través del éter.
Para poder decir que han integrado la IA de forma segura en sus flujos de trabajo, las empresas necesitan dos cosas, sugieren los investigadores: observabilidad y auditabilidad, y un proceso de “desconexión”. En este momento, casi un tercio (31%) de los encuestados dice que carece de visibilidad de todo su sistema de IA.
Cuando se trata de eliminar el mecanismo de cambio, alrededor del 40% apoya la idea, pero la mitad (50%) no está segura de cómo implementarlo.
A pesar de los desafíos y riesgos regulatorios y de gobernanza, las opiniones sobre la IA siguen siendo positivas. De hecho, casi la mitad (44%) cree que la IA agente “mejorará significativamente” la ciberdefensa en el corto plazo.
“La IA agente está llevando a las organizaciones a una nueva categoría de riesgo”, añadió Jin. “Nuestra investigación muestra que las preocupaciones ya son claras, desde la exposición de datos confidenciales hasta la pérdida de supervisión. Sin visibilidad y control, las organizaciones están implementando sistemas que no comprenden ni operan completamente, y ese riesgo solo aumentará a menos que se tomen medidas”.

El mejor antivirus para todos los bolsillos
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy