- Cuatro de cada cinco ejecutivos dijeron que era menos probable que valoraran a los trabajadores humanos después de usar IA
- La IA todavía necesita supervisión humana y a muchos les cuesta confiar plenamente en ella
- El retorno de la inversión deficiente e incluso negativo sigue afectando a muchos
Una nueva encuesta realizada por Globalization Partners revela que más de cuatro de cada cinco (82%) ejecutivos de empresas dicen que es menos probable que valoren a los trabajadores humanos después de utilizar herramientas de IA, posicionándolos como un recurso secundario detrás de sistemas más capaces.
Este sentimiento contrasta con el estado actual, donde el 60% de los 2.850 altos ejecutivos encuestados coincidieron en que los humanos todavía gestionan el trabajo con IA sólo como un potenciador de la productividad.
La diferencia podría significar que, si bien los humanos siguen siendo integrales hoy en día, los gerentes podrían poner menos énfasis en la fuerza laboral humana en el futuro a medida que la IA funcione de manera más autónoma.
La IA está influyendo en cuánto valoran los altos directivos a sus empleados humanos
Este cambio podría posicionar a los humanos como gerentes de IA en lugar de trabajadores administrativos, ya que dos de cada tres (69%) ahora dedican más tiempo que nunca a monitorear y revisar el trabajo generado por IA. Aún persiste una sensación de falta de confianza: solo el 23% tiene plena confianza en la precisión de la IA y el 61% está preocupado por la precisión legal al utilizar la IA en documentos confidenciales.
Sin embargo, si bien algunos ejecutivos ven la IA como un reemplazo humano, muchos otros todavía están descontentos con sus retornos. Tres cuartas partes (73%) dicen que el retorno de la inversión no ha estado a la altura de las expectativas, y el 16% incluso informa un retorno de la inversión negativo. Como resultado, siete de cada 10 ejecutivos dicen que están dispuestos a recortar los presupuestos de IA este año si no se cumplen los objetivos.
Por otra parte, Padraig Byrne, analista vicepresidente de Gartner, explicó: “La IA está en todas partes, pero la mayoría de las organizaciones todavía están descubriendo cómo monitorear y confiar en estos sistemas”.
Al proporcionar un adelanto de dónde las empresas pueden equivocarse, la firma de investigación sugiere que sin una base sólida de datos semánticos y contextuales, quienes crean agentes de IA pueden ver alucinaciones, resultados poco confiables y sesgos.
Juntos, los dos informes indican que, si bien los ejecutivos ven cada vez más la IA como inevitable, muchos todavía luchan por creerlo.
De cara al futuro, Gartner pide la implementación de políticas de monitoreo de modelos para brindar un mayor enfoque en métricas de calidad e infraestructura para gestionar la telemetría de modelos de gran volumen.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed.