La suposición de que la IA está irrumpiendo es una tecnología global y sin fronteras. El director ejecutivo de OpenAI, Sam Altman, incluso reveló cómo la IA tiene el potencial de “levantar drásticamente el piso” a nivel mundial. Pero si bien el acceso a las herramientas de IA puede ser global, su implementación y gobernanza son cada vez más locales.
Sin un marco global unificado, la gobernanza de la IA se está fragmentando: continentes, naciones e incluso estados individuales establecen de forma independiente sus propios estándares de uso, cumplimiento y regulación.
Cofundador y CEO de Dipset.
La soberanía se ha convertido en la prioridad definitoria y, sólo en las últimas semanas, el ritmo de desarrollo se ha acelerado significativamente. Microsoft ha ampliado su Sovereign Cloud para admitir implementaciones de IA totalmente desconectadas, modelos que se ejecutan sin conectividad a Internet, aislados de la infraestructura global compartida.
El artículo continúa a continuación.
Al mismo tiempo, Europa está acelerando sus esfuerzos para construir una nube soberana y una infraestructura de inteligencia artificial para reducir la dependencia de los proveedores estadounidenses. Y los gobiernos y las agencias de defensa están invirtiendo cada vez más en su propia infraestructura de IA, tratándola como una capacidad estratégica en lugar de una dependencia.
Estas son señales de cambio estructural que todo equipo de IA empresarial debe tener en cuenta.
Las consultas de arquitectura definida ya no necesitan utilizar un modelo. Se trata de dónde y cómo operan los sistemas de IA y bajo qué jurisdicción. Durante gran parte de la última década, las empresas han elegido proveedores de IA en función de sus capacidades y costos. Mientras tanto, la geografía quedó en segundo plano. Ese modelo ya no se sostiene.
Hoy en día, el lugar donde opera un sistema de IA determina cómo debe operar: a qué datos puede acceder, qué regulaciones se aplican y qué riesgos asume la organización. Pero la posición por sí sola no es suficiente.
También es importante cómo está configurado el sistema, cómo fluyen los datos y qué elementos están bajo su control. La misma aplicación puede tener perfiles de riesgo y cumplimiento muy diferentes dependiendo de cómo esté diseñada y dónde se ejecute.
Esto hace que la IA pase de ser una decisión puramente técnica a una decisión arquitectónica y legal.
reglas de la IA
Ese cambio ya no es teórico. La legislación de la UE sobre IA, ahora en implementación parcial, impone obligaciones estrictas a los sistemas de IA de alto riesgo, incluidos requisitos de procedencia de los datos y transparencia del modelo que varían según el procesamiento.
La Ley de Protección de Datos Personales Digitales de la India y las reglas de localización de datos en la nube de Arabia Saudita están agregando más restricciones geográficas a las multinacionales en esos mercados.
Y hoy, en todo el mundo, al menos 72 países han propuesto más de 1000 iniciativas políticas y marcos legales relacionados con la IA para abordar las preocupaciones del público sobre la seguridad y la gobernanza de la IA. Independientemente del proveedor del modelo, la carga del cumplimiento recae en última instancia en la empresa que implementa el sistema.
Gartner proyecta que las violaciones regulatorias de IA aumentarán las disputas legales para las empresas de tecnología en un 30% para 2028.
En una encuesta reciente realizada a 360 líderes de TI, más del 70 % citó el cumplimiento normativo entre sus tres principales desafíos para implementar GenAI, sin embargo, solo el 23 % confía en la capacidad de su organización para gestionar la seguridad y la gobernanza al implementar estas herramientas.
Elegir un modelo hoy sin saber dónde se ejecuta, cómo funciona en el sistema más amplio y bajo qué jurisdicciones genera exposición al cumplimiento en el futuro.
La dependencia de los proveedores ahora tiene una dimensión geopolítica
La mayoría de las empresas construyeron sus primeros sistemas de IA generativa en torno a un puñado de grandes proveedores de API. Esto tiene sentido para la experimentación, pero la dependencia de un proveedor ahora crea una dependencia frágil para los sistemas de IA de nivel de producción.
En 2024, el Departamento de Comercio de EE. UU. agregó varios proveedores chinos de chips y modelos de IA a la Lista de Entidades, lo que obligó a las empresas con operaciones en ambos mercados a auditar rápidamente qué sistemas de IA tocan infraestructura restringida.
Las organizaciones que construyeron canales en torno a un único proveedor con un enrutamiento de datos poco claro se encontraron en una emergencia de cumplimiento inmediata, al tiempo que crearon una gran carga financiera.
La disputa entre el Antropoceno y el Pentágono revela las implicaciones más profundas de la fragmentación geopolítica: la dependencia de un único proveedor de IA introduce incertidumbre en torno a la regulación. Independientemente de la aplicación específica, el caso proporciona un ejemplo claro y en tiempo real de cómo se están desarrollando estas variaciones.
La realidad es que diferentes partes interesadas (proveedores, gobiernos y reguladores) a menudo operan bajo marcos legales, éticos y políticos que compiten entre sí. Independientemente de qué lado asuma el control, el episodio ya está impulsando a los equipos de adquisiciones de toda la base industrial de defensa a reevaluar la dependencia de un único proveedor comercial de IA.
Un sistema que no se puede mover es un sistema que no se puede operar, lo que crea una responsabilidad operativa.
Una arquitectura de IA verdaderamente soberana
La IA soberana es un conjunto de decisiones arquitectónicas que las organizaciones pueden lograr tomando cuatro decisiones concretas.
Primero, necesitamos separar las capas. La recuperación de datos, la estimación de modelos y las barreras de seguridad deben ser independientes e intercambiables de forma independiente. El efecto de Schrems II lo ilustra en la práctica.
Los sistemas de inteligencia artificial construidos estrechamente en torno a API de nube patentadas enfrentaron una reestructuración significativa cuando los contratos de procesamiento de datos con proveedores estadounidenses fueron cuestionados legalmente.
Por el contrario, una arquitectura más modular, en la que la recuperación y la estimación estuvieran desacopladas, podría adaptarse más rápidamente, por ejemplo, trasladando la estimación a un entorno local sin rediseñar todo el sistema.
En segundo lugar, los sistemas de IA deben admitir múltiples entornos de implementación. Los sistemas de producción de IA deberían poder ejecutarse en la nube pública, la nube privada, en las instalaciones y en entornos aislados y desconectados sin necesidad de rediseñar la arquitectura.
En tercer lugar, mantener la portabilidad del modelo. Los modelos de peso abierto como Llama 3 y Mistral han reducido significativamente la brecha de rendimiento con alternativas patentadas para muchas tareas empresariales, lo que hace que sea cada vez más factible cambiar de modelo sin grandes concesiones debido a requisitos, regulaciones o dependencias cambiantes.
Y, por último, el flujo de datos debe estar claramente documentado y controlado. Los equipos necesitan una visibilidad clara de qué datos ingresan a cada modelo, dónde se realizan las proyecciones y dónde se almacenan los resultados. La prohibición temporal de ChatGPT en Italia en 2023 subraya esta necesidad.
Los reguladores cuestionaron la capacidad de OpenAI para demostrar claramente cómo se procesan y almacenan los datos de los usuarios italianos. El episodio se ha convertido en un punto de referencia para las revisiones legales de la IA empresarial en toda Europa.
Implicaciones prácticas para los equipos de IA en este momento
El primer paso en la IA empresarial fue experimentar con la velocidad y la producción rápida. El siguiente paso es la resiliencia y la construcción de sistemas que sigan siendo ágiles a medida que cambia el panorama regulatorio y geopolítico.
Eso no significa desacelerar. Esto significa tomar decisiones arquitectónicas que preserven la flexibilidad a lo largo del tiempo, en torno a la portabilidad del modelo, las opciones de implementación y la gobernanza de datos. Estas elecciones determinarán si los equipos pueden moverse con velocidad y control, o gestionar la fricción que se puede evitar durante los próximos dos o tres años.
La orquestación agente como capa de desacoplamiento
La orquestación agente abierta está surgiendo como una capa que separa las decisiones de hoy de las limitaciones del mañana.
Como se destaca en una investigación reciente de Gartner sobre el dominio de la IA, las organizaciones están siendo empujadas hacia flujos de trabajo independientes del modelo construidos sobre capas de abstracción y orquestación, lo que permite el cambio de modelo regional, reduce la dependencia de los proveedores y garantiza el cumplimiento en todas las jurisdicciones.
La orquestación agente abierta permite este cambio. En lugar de conectar las aplicaciones a un único modelo, proveedor o patrón de implementación, introduce la abstracción en el nivel correcto: combinando modelos, herramientas y fuentes de datos como componentes intercambiables.
Los equipos pueden intercambiar modelos a medida que evoluciona el rendimiento, adaptar las implementaciones a medida que cambian las regulaciones y hacer cumplir la gobernanza sin reconstruir sistemas completos. Desplaza el centro de gravedad de cualquier modelo a la capa de orquestación que controla cómo se comportan los sistemas.
El resultado no es sólo flexibilidad, sino también sostenibilidad: los sistemas de IA evolucionan con el paisaje en lugar de cambiar cada vez. Esto es lo que la soberanía funcional muestra en la práctica.
Hemos presentado los mejores chatbots de IA para empresas.
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: