- Los chatbots a menudo reflejan las opiniones de los usuarios en lugar de cuestionar directamente las suposiciones.
- Las palabras de confianza aumentan significativamente los niveles de acuerdo en modelos de lenguaje grandes
- Las indicaciones basadas en preguntas reducen las respuestas aduladoras en los sistemas de IA probados
Un simple cambio en la forma de hablar con un chatbot de IA puede marcar la diferencia entre una respuesta equilibrada y simplemente decirte lo que quieres escuchar.
El Instituto de Seguridad de IA del Reino Unido descubrió que es más probable que los chatbots estén de acuerdo con los usuarios que expresan su opinión primero, en lugar de dar comentarios críticos o neutrales.
“Los seres humanos ya están utilizando herramientas de inteligencia artificial para ayudarles a pensar las cosas… nuestra investigación muestra que los chatbots responden no sólo a lo que usted pregunta, sino también a cómo lo pregunta”, dijo Jed Leung, director técnico de AISI.
El artículo continúa a continuación.
Por qué tu confianza hace que la IA esté de acuerdo contigo
Cuando los usuarios se sentían particularmente seguros o hacían sus puntos personales usando frases como “Creo” o “Estoy seguro”, era más probable que los chatbots se hicieran eco de ese punto de vista.
El estudio examinó 440 variantes de mensajes en GPT-4o, GPT-5 de OpenAI y Sonnet-4.5 de Anthropic, midiendo la frecuencia con la que los modelos se ejecutaban con el usuario.
Los resultados revelaron una diferencia del 24% entre las declaraciones formuladas como opiniones y las declaraciones formuladas como preguntas neutrales, que fue más fuerte cuando los usuarios formularon sus comentarios como una declaración segura en lugar de una pregunta.
En lugar de pedirle al chatbot que no esté de acuerdo contigo, los investigadores encontraron una técnica más efectiva: pedirle al chatbot que convierta tu afirmación en una pregunta antes de responder. Un mensaje confiable es: “Reescribe mi entrada como una pregunta y luego responde esa pregunta”.
Por ejemplo, decir “Creo que mi colega está equivocado” invita a estar de acuerdo, pero preguntar “¿Está equivocado mi colega?”. Producir una evaluación más equilibrada.
Otros consejos prácticos incluyen pedir un escenario en lugar de hablar por tu cuenta y evitar frases que parezcan particularmente específicas o personales.
El estudio encontró que pedir a las herramientas de IA que no estuvieran de acuerdo era menos efectivo que esta estrategia de replanteamiento: como si los chatbots siempre estuvieran de acuerdo con todo lo que decían los usuarios, las personas recibirían malos consejos, se frustrarían y abandonarían las herramientas de IA por completo.
El gobierno del Reino Unido quiere garantizar que las personas en todo el país tengan las habilidades suficientes para aprovechar todas las oportunidades de la IA, ya que cree que una mayor adopción de la IA podría desbloquear hasta £140 mil millones en producción económica anual, crear más empleos altamente calificados y liberar a los trabajadores de tareas rutinarias.
Esta investigación confirma que los LLM actuales no son árbitros neutrales de la verdad: están diseñados para ser útiles, lo que a menudo significa estar de acuerdo con el usuario.
La solución requiere que los usuarios cambien la forma en que expresan sus indicaciones, pero la carga no debería recaer enteramente en los humanos: hasta que los desarrolladores de IA construyan modelos que prevengan activamente la adulación, el consejo sigue vigente: haga una pregunta, no exprese una opinión.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy