Durante gran parte de la última década, los equipos de seguridad no han tenido el ancho de banda para pensar mucho en cómo proteger las plataformas de experiencia de clientes y empleados. Y eso tenía sentido. Recopile comentarios, cree un informe y envíelo a un humano para que actúe en consecuencia. El perfil de riesgo era bajo.
Pero esa cuenta ya no vale. Estas plataformas ahora están conectadas directamente a sistemas de software de recursos humanos, bases de datos de CRM y motores de compensación.
El artículo continúa a continuación.
Director de seguridad, Quatrix.
En el mundo de los programas de gestión de experiencias agentes, tienen cada vez más acceso a actividades críticas para el negocio, y eso significa que ya no pueden considerarse simples herramientas de encuesta.
Dado el mundo en el que vivimos ahora, los equipos de seguridad deben considerar cómo administran estos sistemas que tienen acceso a datos confidenciales.
La superficie de exposición es más grande de lo que crees.
Lo que dificulta esto es la sensibilidad de los datos. Los programas de experiencia del cliente dan forma a las decisiones sobre precios y productos. Los programas de experiencia de los empleados abordan inquietudes sobre el liderazgo y la seguridad en el lugar de trabajo, alineándose directamente con las decisiones de recursos humanos. Pero, a diferencia de otros casos, estos datos son difíciles de identificar como información de identificación personal (PII) o información sensible.
Luego está el problema de la IA en la sombra. La mitad de los empleados ahora utiliza regularmente herramientas de inteligencia artificial en el trabajo, pero solo el 20% utiliza las aprobadas por la empresa. Esto significa que los datos confidenciales de la experiencia ya se están moviendo a través de flujos de trabajo que los equipos de seguridad no saben que existen, pero prohibir herramientas elimina por completo, en lugar de eliminar, la visibilidad del riesgo.
Si está implementando IA en un entorno de cara al cliente, estas son las áreas en las que me centraría:
1. ¿A qué se conecta realmente su plataforma y en qué decisiones influye? La mayoría de los equipos han mapeado la integración a nivel técnico. Pocos han mapeado las decisiones comerciales posteriores de estas integraciones con flujos de trabajo automatizados. Si no puede responder eso con confianza, tiene una brecha significativa independientemente de su consentimiento configurado.
2. ¿Cómo se verifica la integridad de las entradas? ¿La información de su respuesta es precisa y completa? ¿Se puede manipular para sesgar los resultados de una empresa? Esto requiere ir más allá de la validación de entrada estándar y llegar a la detección de intenciones y anomalías.
3. ¿Con qué rapidez puedes identificar y actuar cuando algo sale mal? A medida que los sistemas de IA se vuelven más agentes, el monitoreo continuo no es opcional. Necesita mecanismos que señalen resultados anormales y le permitan intervenir antes de que agentes de IA mal configurados o manipulados agraven el problema a escala.
Cuando la IA falla en público, falla rápidamente
La confianza con los clientes se construye a lo largo de años y se pierde en segundos. Vi a un importante minorista pasar años reconstruyendo la confianza de sus clientes después de una filtración de datos a principios de la década de 2010. Esto es aún más importante en un mundo de IA, donde las personas quieren tener la seguridad de que los datos que comparten están protegidos al más alto nivel.
Muchos líderes de seguridad ya comprenden las cifras de nuestra investigación. El 53% de los consumidores dice que el uso indebido de datos personales es su principal preocupación cuando las empresas utilizan la IA para automatizar las interacciones, y eso supone un aumento de ocho puntos con respecto al año pasado. Dos tercios quieren una experiencia personalizada, pero sólo el 40% cree que los beneficios justifican la compensación por la privacidad. Aproximadamente la mitad dice que compartirían más datos si las organizaciones fueran más transparentes sobre cómo se utilizan.
En un mundo que investiga activamente cómo utilizar la IA, la confianza en las soluciones de IA es un factor clave para la adopción por parte de consumidores y organizaciones. Gestionar esta confianza hará o deshará a las empresas que esperan que sus clientes se involucren.
La mayoría de las organizaciones han mapeado su radio tecnológico: qué sistemas se conectan, qué API están abiertas, dónde fluyen los datos. Pocos han mapeado el alcance de su negocio: el costo real cuando los datos son inexactos, sesgados o manipulados. Cuando un chatbot alucina con una política de reembolso, revela datos personales o crea una respuesta, es un fracaso de marca directamente frente a los clientes. Un agente de IA mal probado puede arruinar miles de relaciones con los clientes antes de que alguien en el negocio se dé cuenta.
La conversación que los líderes de seguridad deben impulsar es “¿Cómo monitoreamos esto continuamente una vez que esté activo?”
La seguridad es una razón comercial
Las empresas están bajo una presión real para actuar con rapidez. Las partes interesadas quieren transformación, los equipos de CX quieren automatización y los equipos de seguridad se posicionan como bloqueadores preocupados por el sesgo, el cumplimiento y la exposición de los datos. Entiendo la frustración de ambas partes, pero el objetivo debe ser trabajar juntos, no que una parte herede la decisión.
Las organizaciones que hacen esto bien están incorporando la seguridad en los valores predeterminados de la plataforma, de modo que cuando un equipo implementa una nueva integración, los rieles ya están en su lugar. Los proveedores de plataformas también deben hacer más en este aspecto: visibilidad clara de lo que está conectado, qué permisos están activos y cuándo se revisaron las integraciones por última vez.
He visto este cambio ocurrir en conversaciones reales. Los líderes de seguridad que pueden demostrar controles rigurosos, monitoreo, prácticas de datos validadas y certificaciones, descubren que las conversaciones de adquisiciones se aceleran y los plazos se comprimen.
Si bien la seguridad ha tardado décadas en desarrollarse como centro de costos, en un mundo donde las plataformas de experiencia están impulsadas por inteligencia artificial y conectadas a las operaciones más sensibles de una empresa, ese marco está obsoleto.
Cuando la seguridad es visible y confiable, los empleados y clientes se sienten más cómodos compartiendo sus datos. Produce una salida de IA nítida y genera confianza. Todo se complica.
¡Enlace!