La IA puede estar de acuerdo contigo y sentirse progresista. Se siente eficiente, alineado y seguro. Aprovecha la naturaleza humana innata de que a todos nos gusta tener razón.
Pero, por mucho que rodearse de hombres que dicen que sí puede ser muy contraproducente, las empresas no tienen nada que ganar con una IA que halague sus suposiciones.
La IA que proporciona retroalimentación rápida, segura y sin fricciones garantiza que lo que el apuntador ya cree significa que no se está cuestionando nada y que en realidad no se está aprendiendo nada significativo.
El artículo continúa a continuación.
Fundador y CEO de Núcleo.
No hablamos lo suficiente sobre este riesgo. Especialmente si se tiene en cuenta que un tercio de los usuarios empresariales irlandeses cree sistemáticamente que la IA siempre produce respuestas realistas y correctas, y en el Reino Unido la cifra es del 36% que dice que “siempre tiene razón”.
Colectivamente, hemos pasado los últimos dos años preocupándonos por las alucinaciones de la IA o los resultados falsos, mientras que un peligro igualmente importante es algo mucho más sutil y subestimado: la adulación.
Alucinación versus trato a ciegas
En abril del año pasado, OpenAI revirtió públicamente la actualización GPT-40 después de que se volviera “demasiado halagadora o agradable”, diciendo que el modelo se inclinaba hacia respuestas de apoyo pero redundantes.
Acuerdo no es lo mismo que precisión, y un modelo que refleje las preferencias del usuario puede convertir un concepto erróneo en algo aparentemente objetivo.
En un entorno empresarial, podría decirse que esto es más dañino que un error aleatorio que se cuela en la red porque los contratos ciegos pueden solidificar el mal juicio, reforzar el sesgo y crear una falsa sensación de verdad y certeza.
La actividad no es igual al valor.
Donde veo que más empresas se equivocan es cuando hay mucha actividad de IA, pero muy poco valor de IA que demostrar.
La IA se ha convertido en la herramienta preferida antes de que se comprenda adecuadamente el problema, y se emplea debido a la presión, debido a FOMO o porque “todos los demás lo están haciendo” -porque no ha sido identificada como la solución adecuada para un desafío empresarial definido- y esta cultura es en parte responsable de una actitud que cree que la IA siempre tiene la razón.
La tentación en muchas organizaciones es tratar la IA como un atajo hacia la transformación. En la reciente encuesta sobre el estado de la IA, el 88 % de los encuestados a nivel mundial dijeron que sus organizaciones utilizan la IA en al menos una función comercial, pero solo el 39 % informó un impacto en el EBIT (ganancias antes de intereses e impuestos) a nivel empresarial.
Al mismo tiempo, el 23 % dice que está ampliando el software de sistemas de IA agentes en las empresas, mientras que el 39 % todavía lo está probando. En otras palabras, existe una clara desconexión entre hacer IA y obtener ROI de ella.
Sin embargo, esto no es un problema técnico. Este es un problema de disciplina.
Muchas empresas prefieren la velocidad a la sustancia. Esto también se refleja en las políticas que vemos venir. Ahora hay muchos ejemplos de mandatos de IA, donde el uso de la IA está vinculado al avance de los empleados en lugar de su impacto. Si vinculamos el éxito al desempeño, estamos creando la cultura equivocada.
Existe una presión constante desde arriba para actuar con rapidez y hacer algo, pero a menudo digo: puedo arreglarlo o puedo hacerlo ahora, no puedo hacerlo ahora. Y cuando se trata de IA, es mucho más caro equivocarse rápidamente que acertar deliberadamente.
Por qué el modelo de “colega junior” supera al concepto de “genio de la IA”
Una de las tendencias más peligrosas que he visto es la rapidez con la que las empresas elevan la IA a una posición que no se han ganado.
Hablamos de IA como si fuera una contratación senior y confiamos en ella porque tiene años y años de experiencia. Depende, ya que comprende el contexto, los matices y las consecuencias, y simplemente no es así.
La IA debe ser tratada como un miembro más joven del equipo. Uno muy capaz, sí: rápido, eficiente y, a menudo, sorprendentemente perspicaz, pero todavía un novato.
Es necesario desafiar la IA. Necesita un ‘gerente’ que encuentre la brecha entre confianza y competencia. La duda y el pensamiento crítico nunca serán necesarios, y si eliminas ese nivel de escrutinio, creas las condiciones perfectas para que prospere la adulación.
La IA deja de ser una herramienta de interrogatorio y se convierte en un espejo.
Este marco explica por qué la disciplina inmediata es importante. Una pregunta ambigua invita a una respuesta ambigua. Un mensaje bien gobernado, con límites claros y reglas de escalamiento, le da al modelo de IA una tarea que realmente puede completar correctamente.
El mejor uso de la IA en los negocios no es emular a un empleado talentoso con instintos perfectos; Actúa como una fricción constructiva, desafiando respuestas obvias, sacando a la luz el contexto faltante y obligando a la toma de decisiones humanas a niveles más profundos. De este modo, la IA se vuelve eficaz sin llegar a ser peligrosamente consensual.
Problema de IA en la sombra
Hay otro aspecto de esto que los líderes a menudo subestiman: lo que sucede fuera de los canales y procesos oficiales.
Cuando se implementa una herramienta corporativa de IA que está altamente desinfectada, demasiado educada y programada para aceptar cualquier aportación del usuario, deja de ser una herramienta operativa eficaz.
Si la IA oficial no proporciona la retroalimentación constructiva necesaria ni ayuda a las personas a resolver problemas verdaderamente complejos, los trabajadores explorarán otras opciones en otros lugares. En silencio, de forma independiente y sin supervisión, buscan modelos “en bruto” no aprobados que realmente desafíen su trabajo. Ahí es donde entra en juego la IA en las sombras.
Microsoft descubrió que el 71% de los empleados del Reino Unido utilizaban herramientas de inteligencia artificial no autorizadas en el trabajo, y más de la mitad (51%) lo hacía semanalmente.
Piensa en lo que eso realmente significa. La información de la empresa, la información del cliente y la toma de decisiones internas se introducen en sistemas que la empresa no controla. Y en lugar de obtener un beneficio controlado e inteligente, se obtiene un riesgo fragmentado.
Si tu IA nunca está de acuerdo contigo, entonces ya tienes un problema
Las organizaciones que obtendrán un valor real de la IA son aquellas que estén dispuestas a reducir el ritmo y pensar críticamente en los lugares correctos.
Eso significa sentar las bases correctas (sus datos, su gobernanza, su experiencia de usuario) antes incluso de pensar en escalar. Esto significa ser intencional sobre cómo se utiliza la IA, dónde se confía en ella y dónde se debe cuestionar, y significa diseñar sistemas que no solo generen respuestas, sino que provoquen mejores preguntas.
Porque cuando la gente empieza a trabajar en tus técnicas de IA, es una gran señal de alerta.
Sí, es un problema administrativo, pero también cultural. La gente no elude las políticas porque sea rebelde por defecto, busca alternativas cuando el proceso de sanción no es claro, es torpe o está completamente ausente.
Si las herramientas gubernamentales no les ayudan a pensar mejor o moverse más rápido, su gente encontrará otras que sí lo hagan, con o sin permiso.
Entonces, el objetivo aquí no es construir una IA que siempre esté de acuerdo, o incluso una IA que siempre tenga la razón, sino construir una IA que desafíe de la manera correcta, en el momento correcto y por la razón correcta.
Si la IA siempre te dice lo que quieres escuchar, no tienes una ventaja inteligente, tienes una cámara de eco muy cara.
Hemos presentado los mejores chatbots de IA para empresas.
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: