- Los empleados de Google firmaron una carta abierta al CEO, expresando su preocupación por el uso de IA militar.
- Los desarrolladores de IA no quieren que su tecnología se utilice con “fines clasificados”
- Google está actualmente negociando un acuerdo con Pengaton
Más de 600 empleados de Google firmaron una carta dirigida al director ejecutivo, Sundar Pichai, para rechazar el uso de su tecnología de inteligencia artificial con fines militares.
La carta abierta destacó las serias preocupaciones éticas de los activistas, diciendo: “Ya se están perdiendo vidas humanas y las libertades civiles están en riesgo por el mal uso de la tecnología en la que estamos desempeñando un papel clave en la construcción”.
“Las personas que trabajan en IA sabemos que estos sistemas pueden concentrar energía y que cometen errores”, dice la carta. “Creemos que nuestra proximidad a esta tecnología crea la responsabilidad de resaltar y prevenir sus usos más poco éticos y peligrosos”.
El artículo continúa a continuación.
¿Otra designación de ‘riesgo de la cadena de suministro’?
En marzo, el director ejecutivo de Anthropic, Dario Amodei, negó el permiso al Pentágono para utilizar los modelos Claude por temor a que pudieran usarse para “vigilancia interna a gran escala” y “armas totalmente autónomas”, lo que llevó al secretario de Defensa, Pete Hegseth, a declarar a la empresa como un “riesgo para la cadena de suministro”.
Poco después, OpenAI intervino para llenar el vacío dejado por Anthropic, y el director ejecutivo Sam Altman enfrentó críticas internas y externas por aparentemente permitir el uso militar de ChatGPT.
El nuevo acuerdo de OpenAI con el Pentágono estaba lleno de lagunas que permitirían el mismo uso de ChatGPT que temía Anthropic Claude. El acuerdo modificó que los modelos de OpenAI “no se utilizarán para el seguimiento, vigilancia o seguimiento intencional de personas o ciudadanos estadounidenses, incluso mediante la recopilación o el uso de información personal o identificable adquirida comercialmente”.
Momentos después, Sam Altman le dijo a su personal que el Pentágono dijo que OpenAI “no puede tomar decisiones operativas” sobre cómo el ejército usa la tecnología de IA.
Ahora, los empleados de Google se están uniendo a un número creciente de empleados de empresas de inteligencia artificial y miembros del público que se oponen al uso militar de herramientas de inteligencia artificial. “Una decisión equivocada ahora causará un daño irreparable a la reputación, el negocio y el papel de Google en el mundo”, decía la carta.
Después de las protestas que involucraron a empleados de Google en 2018, la compañía revisó sus políticas de IA para decir que no implementaría sus herramientas de IA donde pudieran “causar daño” y que no “diseñaría ni implementaría” herramientas de IA para vigilancia o armamento. Estas cláusulas se eliminaron silenciosamente de sus políticas de IA el 4 de febrero de 2025.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed.