- Google está entrando en el mercado militar/gubernamental
- El nuevo acuerdo del Pentágono permite utilizar Gemini para “cualquier propósito legítimo”
- Los empleados de Google no están contentos con el nuevo contrato
Google amplió recientemente su contrato con el Departamento de Defensa de EE.UU. (DoD) para proporcionar Gemini para su uso en operaciones clasificadas o para “cualquier propósito legítimo”, y se retiró de un desafío de 100 millones de dólares del Pentágono para construir enjambres de drones autónomos controlados por voz.
Al mismo tiempo, la empresa se ha enfrentado al descontento interno por su decisión de adjudicar Gemini al Pentágono para proyectos clasificados, pero la empresa ha dicho a sus empleados que está “orgullosa” del contrato de IA del Pentágono.
Entonces, ¿cómo han evolucionado los principios y políticas de Google con el tiempo? ¿Y permiten que la empresa se convierta en una porción altamente rentable -aunque moralmente dudosa- del pastel del gobierno?
El artículo continúa a continuación.
Puesta a tierra de drones
El giro de Google respecto de su lema alguna vez ampliamente aceptado de “no será malo” puede parecer cierto a los ojos de algunos empleados de Google, pero no es la primera vez que la compañía cambia su política. Las políticas de IA de la compañía declararon una vez que la compañía no implementaría sus herramientas de IA donde pudieran “causar daño” y que no “diseñaría ni implementaría” herramientas de IA para vigilancia o armamento.
La retirada de Google del concurso del Pentágono para desarrollar tecnología capaz de convertir instrucciones habladas en comandos para un enjambre de drones autónomos se debió supuestamente a la falta de recursos, pero se informó que la verdadera razón fue una revisión ética interna. Bloomberg Informe
Esto al menos sugiere que la junta de ética interna todavía está funcionando y no completamente ineficaz.
Por otro lado, a medida que la compañía amplía su disponibilidad de Gemini a redes clasificadas, el Pentágono es libre de utilizar Gemini para “cualquier propósito legal”. Esta tendencia es más ladrar que morder.
Antes del cambio de siglo, era ilegal que los proveedores de comunicaciones instalaran puertas traseras con fines policiales, pero CALEA y la Ley PATRIOTA cambiaron eso. Anteriormente se había prohibido a las autoridades federales confiscar legalmente datos almacenados en servidores en países extranjeros, pero la Ley de la Nube también cambió eso.
Las cosas sólo son ilegales hasta que son legales, y viceversa, lo que efectivamente le da al Pentágono una laguna jurídica preparada para el futuro si los casos de uso previstos se legalizan repentinamente.
Por lo tanto, la cláusula de “cualquier propósito legal” no proporciona ninguna protección significativa contra el uso de IA para sistemas de armas autónomos o propósitos de vigilancia nacional masiva, como ha protestado Anthropic, y se ve aún más debilitada por la inclusión de una cláusula en el acuerdo Google-DoD que dice que la compañía “no tiene derecho a… vetar decisiones gubernamentales legales”. Algunos también se han topado con los contratos del Pentágono de OpenAI.
Esto le da al Pentágono casi rienda suelta sobre la dirección que toma con Gemini en sus proyectos clasificados. La vigilancia masiva existe desde hace décadas, pero mientras tanto la IA pretende hacerla más inteligente, más específica y más eficiente.
Un trozo del pastel del Pentágono
El atractivo de trabajar como contratista gubernamental y militar es simple: implica mucho dinero. Antes de que se gastara por completo la tinta sobre el aislamiento de Anthropic del uso gubernamental, OpenAI tenía un contrato brillante y estirado para desempeñar exactamente el papel que Anthropic estaba tratando de evitar.
De manera similar, Microsoft y Amazon ya han ganado numerosos contratos que involucran herramientas de nube, inteligencia artificial y ciberseguridad, y parece que Google está tratando de ponerse al día.
Los empleados de Google plantean un desafío en lo que respecta a la ética del trabajo con el gobierno. En 2018, la empresa abandonó el Proyecto MAVEN tras las protestas de los empleados de Google por el uso de la tecnología de Google para analizar imágenes de ataques con drones. La política de IA de Google de “no hacer daño” se ha perdido como resultado de esta protesta
Google enfrentó una controversia similar cuando los empleados se opusieron a la posible participación de la empresa en el suministro de tecnología al Servicio de Inmigración y Control de Aduanas (ICE) y a la Oficina de Aduanas y Protección Fronteriza (CBP).
Como es tradición, los empleados de Google están formando nuevamente el piquete digital, con más de 600 firmando una carta al CEO Sundar Pichai pidiéndoles que rechacen cualquier uso de la tecnología de inteligencia artificial de Google con fines militares.
En respuesta, Kent Walker, presidente de asuntos globales de Google, escribió en un memorando interno el martes. Información“Hemos trabajado con orgullo con el Departamento de Defensa desde el primer día de Google y seguimos creyendo que es importante apoyar la seguridad nacional de una manera reflexiva y responsable”.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed.