Cuando un sistema de IA toma una decisión importante que su organización no puede explicar completamente, ¿quién es el responsable?
Es una pregunta que cada vez es más difícil de evitar a medida que los sistemas que alguna vez esperaron instrucciones comienzan a actuar de forma autónoma, iniciando tareas, tomando decisiones y adaptándose a medida que avanzan.
Para las empresas británicas, esto plantea un riesgo de cumplimiento y estratégico, especialmente dada la clara ambición del gobierno del Reino Unido de acelerar el desarrollo de herramientas de IA al ritmo del Fondo Soberano de Riesgo de IA de £500 millones lanzado en abril.
El artículo continúa a continuación.
Director global de privacidad y gobernanza de IA de Wipro.
Considere una empresa de servicios financieros a la que se anima a adoptar una IA agente para ayudar en las decisiones crediticias, o un proveedor de atención médica que contrata a un asistente de clasificación clínica de una startup asociada.
En ambos casos, los agentes pueden recurrir a información personal sensible, actuar sin instrucción humana directa y dar forma a resultados que tienen consecuencias tangibles.
El riesgo se ve acentuado aún más por algo que rara vez aparece en los debates sobre gobernanza: los sistemas de inteligencia artificial se están volviendo considerablemente más persuasivos, especialmente cuando tienen acceso al contexto personal de sus usuarios.
Las investigaciones muestran que cuando la IA sabe algo sobre con quién está hablando, sus habilidades de persuasión se vuelven más refinadas con el tiempo. En sistemas agentes con memoria persistente, esto es compuesto.
Cuando los usuarios no pueden saber por qué un agente responde de la forma en que lo hace, o si está optimizando para sus intereses, la confianza se convierte gradualmente en dependencia.
Confianza desde el cumplimiento por diseño
Gran parte del debate sobre la gobernanza de la IA todavía gira en torno a la prevención de pérdidas y el cumplimiento normativo. Estas cuestiones son importantes y siempre lo serán. Pero prevenir el daño no es lo mismo que moldear el efecto. En una era de autonomía, la rendición de cuentas no puede definirse únicamente por lo que sale mal. También debe tener en cuenta el futuro que estamos creando activamente.
A medida que los agentes de IA pasan de las herramientas a las conversaciones, el desafío clave se vuelve conductual: ¿cómo garantizamos que realmente se pueda confiar en estos sistemas? Confianza por diseño significa que la respuesta está integrada en la arquitectura de un sistema agente desde el principio, no agregada después de su implementación.
Para las organizaciones, también representa un replanteamiento: la confianza no es una barrera para la adopción, sino una base para buenos resultados y, cada vez más, un diferenciador competitivo real.
Esta creencia en las ganancias en lugar de la ingeniería requiere dos capas distintas de pensamiento de diseño: estructural y psicológica.
Acumulaciones de creencias
A nivel estructural, un diseño significativo significa construir un enfoque estratificado hacia la autonomía. Para confiar en lo que hace un sistema de IA, las organizaciones deben comprender lo que sabe, lo que puede hacer y lo que realmente hace.
Esto significa comenzar con datos rastreables y bien gobernados, agregar reglas claras que reflejen valores y límites, y garantizar registros de decisiones transparentes que permitan cuestionar las acciones y aprender de ellas.
En la práctica, esto significa:
Ruta de razonamiento lógico: El agente debería poder explicar cómo y por qué alcanzó un resultado, no como una divulgación puramente técnica sino como una trazabilidad significativa.
Organización cerrada: Límites claros sobre lo que el agente puede hacer, decidir o recomendar sin un aumento tácito de su autonomía.
Claridad de objetivos: Las intenciones del agente deben ser claras. Los usuarios deben saber si se está optimizando para obtener precisión, seguridad, eficiencia, compromiso o resultados comerciales.
Competidores y anulaciones: Las personas deben poder desafiar, corregir o separarse fácilmente del agente. Una salida sin fricciones requiere una creencia.
Regla por diseño: Los mecanismos de registro, auditabilidad y supervisión deben incorporarse desde el principio, no agregarse más adelante.
Antes de escalar la autonomía, existe la oportunidad de frenar y observar. ¿Cómo se comporta un agente después de conocer lo salvaje? ¿Qué patrones empieza a favorecer? ¿Los usuarios procrastinan más? ¿Anulación baja? ¿Deberían creer rápidamente?
Tomarse el tiempo para explorar cómo se desarrollan estos cambios es la forma en que las organizaciones evitan quedarse dormidos sobre comportamientos que nunca quieren normalizar.
nivel psicológico
Las personas necesitan sentir que todavía tienen capacidad de acción, comprender cuándo actúa la IA y por qué, y saber cómo intervenir. Los sistemas que son técnicamente compatibles pero empíricamente opacos erosionan rápidamente la confianza. Eso exige elecciones de diseño deliberadas.
El agente debe evitar señales antropomórficas que sugieran empatía o autoridad más allá de su capacidad real, porque el tono emocional no debe transmitir comprensión moral.
Debería indicar abiertamente niveles de incertidumbre y confianza, porque decir “no sé” es una característica que genera confianza, no una limitación. No debe reforzar críticamente creencias, reflejar emociones para profundizar el apego ni optimizar la dependencia. La confianza construida a través de ese reflejo emocional es frágil.
La alternativa es la resonancia cognitiva: la cualidad de un sistema que se comporta de manera que los usuarios puedan comprender, inferir e interrogar críticamente intuitivamente.
Tales creencias están sujetas a escrutinio, ya que el comportamiento predecible y basado en principios produce creencias más duraderas que efectos adaptativos. Los agentes de IA con resonancia cognitiva tratan a los usuarios como sujetos racionales, no como objetivos conductuales.
Una pregunta con la que vale la pena sentarse
Para cualquier empresa británica que aproveche las oportunidades y el escrutinio que conllevan las ambiciones de IA del gobierno del Reino Unido, el replanteamiento es fundamental.
Los líderes deben plantearse simplemente la pregunta: “¿Es nuestra IA responsable?” Pero, ¿qué comportamiento normalizará este sistema, qué recompensará y qué desalentará tácitamente?
La verdadera prueba de la autonomía responsable no serán los riesgos que evitemos. Será el futuro que hemos creado deliberadamente.
Hemos calificado el mejor software de automatización de TI..
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: