- Microsoft ha aclarado algunos términos relacionados con Copilot
- La responsabilidad de las herramientas de IA pasa a los usuarios
- A pesar de tener “fines recreativos”, todavía se comercializa mucho entre los trabajadores.
En un giro importante de los acontecimientos, Microsoft reafirmó que Copilot es “sólo para fines de entretenimiento” y que si se usa para el trabajo, debe usarse como el primero de múltiples pasos de verificación de hechos, en lugar de depender de él.
“Puede cometer errores y puede que no funcione según lo previsto”, escribió la empresa. “No confíe en Copilot para obtener consejos importantes. Utilice Copilot bajo su propia responsabilidad”.
Si bien la compañía desea que las empresas y los empleados sigan usando Copilot para trabajar, existe un claro traspaso de responsabilidad al usuario, lo que libera a Microsoft de cualquier acusación de información falsa.
El artículo continúa a continuación.
Microsoft dice “use Copilot bajo su propia responsabilidad”
Microsoft está reconociendo efectivamente el riesgo de alucinaciones de IA en medio de preocupaciones constantes sobre el contenido protegido por derechos de autor, la ambigüedad de la propiedad intelectual y la legalidad de la producción.
Con esto en mente, la compañía claramente quiere que pensemos en Copilot como una herramienta, no como una persona que toma decisiones, y que los usuarios puedan verificar los resultados de forma independiente y desconfiar de cualquier información confidencial y protegida.
“Usted acepta indemnizarnos y eximirnos de toda responsabilidad… de y contra cualquier reclamo, daño y gasto… que surja de o esté relacionado con su uso de Copilot”, agregó Microsoft en otro párrafo.
En términos más generales, la compañía también señala que se pueden utilizar indicaciones y respuestas para mejorar Copilot, pero la versión Enterprise tiene medidas de seguridad adicionales para proteger los datos confidenciales. En otras palabras, los usuarios conservan el derecho a sus entradas, pero Microsoft todavía tiene el derecho de utilizar los datos para mejorar el servicio.
Sin embargo, si bien los esfuerzos de Microsoft por poner cierta responsabilidad sobre los usuarios han llamado la atención, no es la única empresa con tales términos. OpenAI, Google y Anthropic ofrecen consejos similares en sus términos, incluida la responsabilidad del usuario y sin garantía de precisión.
El cambio de responsabilidad del proveedor de IA al usuario es un cambio continuo que las empresas exigen mientras la industria aún analiza cuáles podrían ser los riesgos legales, pero Microsoft aún vende la herramienta Copilot a usuarios comerciales y consumidores, claramente un ejercicio de redefinición de la redacción en lugar de un cambio completo de comportamiento.
Siga TechRadar en Google News Y Agréganos como fuente preferida Obtenga nuestras noticias, reseñas y opiniones de expertos en su feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy