Ilustración: Creativos de Getty
getty
En un complejo industrial global liderado por el software y que avanza con fuerza en la digitalización, la mención de “grandes datos” se ha vuelto rutinaria. Pero la industria de procesos lo llama “datos de calidad” y no la recopilación aleatoria de montañas de datos digitales lo que marca la diferencia.
Es el verdadero factor decisivo para la inteligencia artificial industrial, el análisis avanzado y, finalmente, las decisiones comerciales ágiles tomadas por industrias que van desde la refinación hasta las plantas de fertilizantes.
En la conferencia OPTIMIZE 26 recientemente concluida en Houston, EE. UU., los expertos de la industria explicaron que los conjuntos de datos de alta calidad son aquellos definidos por la relevancia comercial, en lugar del gran volumen que hace que la frase big data sea un cliché. Lograr el equilibrio adecuado se está volviendo más crítico con el aprendizaje automático y el surgimiento de la IA de agentes en la industria de procesos.
Nuno Pacheco, ingeniero senior de optimización y control de Repsol, y un profesional profundamente involucrado en la operación de la compañía energética integrada de España, dijo: “La mala calidad o los datos arrojados al azar conducirán a conocimientos deficientes, mientras que quizás conjuntos de datos más pequeños, bien pensados e ingresados estratégicamente permitirán resultados más confiables.
Pacheco añadió que la industria sólo se da cuenta de esto cuando trabaja en soluciones digitales, y muchas veces frunce el ceño al escuchar la frase big data. “Los modelos de IA se entrenan con basura, los datos aleatorios de toda la operación producirán resultados basura. Los datos de alta calidad son esenciales para una IA efectiva, no solo una gran cantidad”.
Adriano Alfani, director ejecutivo de Versalis, una subsidiaria de propiedad total de la gran empresa energética italiana Eni, dijo que la recopilación de datos de calidad y análisis predictivos, en asociación con el proveedor clave de equipos comerciales Aspen Technology Emerson, respalda muchas de las iniciativas de eficiencia, seguridad, mantenimiento y sostenibilidad de la compañía.
Pero Alfani establece una conexión directa con algo operativo más profundo en el caso de Versalis. “Nos permite responder a nuestro clima operativo de una manera más ágil. A medida que los altos costos de energía y otros factores macroeconómicos comienzan a perturbar nuestro negocio de productos químicos básicos en Europa, los datos confiables de la compañía respaldan nuestro próximo plan de transformación”.
La transformación implicó que Versalis reestructurara sus operaciones químicas básicas en Europa hacia la bioquímica, la circularidad y los productos químicos para yacimientos petrolíferos para garantizar su competitividad en la región.
Muhammad Zaghum Riaz, vicepresidente de Engro Fertilizers, parte del Grupo Engro de Pakistán, dijo que en un mundo donde los activos estratégicos como las plantas petroquímicas y de fertilizantes aspiran a una autonomía total, el tipo correcto de recopilación y análisis de datos es una misión crítica.
“No somos una excepción. La planta totalmente autónoma habilitada por IA sigue siendo nuestro objetivo final. Nos embarcamos en este viaje en 2021. La digitalización de todas nuestras operaciones es una gran parte del ejercicio de visión de 10 años de nuestro grupo que iniciamos ese año con dos proyectos: uno en polímeros y otro en fertilizantes utilizando control de procesos habilitado por IA, y otro énfasis en datos de calidad operativa”.
Mercado de tejido de datos multimillonario
Es probable que los proveedores de software estén interesados en los esfuerzos globales para obtener datos y análisis de calidad relacionados con vías autónomas para la industria de procesos.
Claudio Fayad, director de tecnología del negocio Aspen Technology del gigante de soluciones industriales Emerson, dijo en una entrevista en OPTIMIZE 26 que el énfasis en los datos de calidad llegó para quedarse, a medida que toda la industria se expande desde la optimización de procesos basados en unidades hasta la optimización de toda la empresa y rápidamente se apodera de un factor crítico. “Esa tecnología operativa o datos “OT” son fundamentalmente diferentes de la tecnología de la información o datos “IT”.
“Los datos de TI a menudo contienen datos sin procesar y sin procesar almacenados por la computadora. Por otro lado, los datos de OT son información generada por procesos físicos y activos de la planta, y priorizan los procesos operativos en tiempo real, la telemetría y la seguridad. Vemos que muchas iniciativas tropiezan a la hora de conseguir los diferenciadores adecuados para el tratamiento de datos de OT y TI”.
Claudio Fayad, director de tecnología del negocio Aspen Technology de Emerson, habló en OPTIMIZE 26, en Houston, EE. UU., el 11 de mayo de 2026.
Aspen Emerson Technology Business, mayo de 2026
No es sorprendente que Fayad vea una oportunidad de negocio de rápido crecimiento en la recopilación y el análisis de datos OT de calidad, y justo en el corazón del sistema de control distribuido o “DCS” del cliente, una plataforma informática distribuida para gestionar y automatizar cada vez más procesos industriales continuos a gran escala.
El vehículo de AspenTech y sus competidores para lograr esto sigue siendo el tejido de datos. En términos de la industria del software, es una arquitectura digital que conecta, automatiza e integra la gestión de datos en un entorno operativo fragmentado y facilita el acceso y la gobernanza independientemente de dónde se almacenen, ya sea en las instalaciones o en la nube.
El concepto en sí tiene sólo más de una década, según IBM, pero se ha convertido en un “elemento de construcción esencial” a medida que la industria de procesos adopta la IA y la automatiza a medio galope, añadió Fayad.
Diversas previsiones sitúan el tamaño del mercado actual de estructuras de datos en la región entre 3.500 y 4.100 millones de dólares (p. ej. Perspectiva empresarial de Fortune y BFG), siendo las industrias energética, petroquímica y farmacéutica las que representan este gran número.
Este mercado tiene el potencial de crecer entre 16.000 y 19.000 millones de dólares a mediados de la próxima década, con una tasa de crecimiento anual compuesta de más del 20%.
Mirando este espacio, AspenTech lanzó una versión mejorada Experiencia El producto de tejido de datos de OT en OPTIMIZE 26. “Esto es el núcleo de cómo integramos y contextualizamos los datos de la industria, y sus nuevas capacidades fortalecen significativamente esa base”, dijo Fayad.
“La última versión mejorada de Inmation hará que el tejido de datos sea más escalable, flexible y esté preparado para la empresa. Al hacerlo, hemos creado la base técnica necesaria de nuestra amplia plataforma de datos industriales para respaldar análisis, flujos de trabajo impulsados por IA y operaciones cada vez más autónomas con el tiempo”.
La oferta de AspenTech bajo el paraguas corporativo de Emerson competirá directamente con Genix de ABB, Data Fusion de Cognite y otros en el mercado, incluidos empresas como Honeywell, que ofrece estructuras de datos patentadas para segmentos industriales específicos.
Fayad reconoce que es un mercado competitivo pero lucrativo donde proveedores como AspenTech deben innovar constantemente. “Creemos que tenemos la combinación adecuada. Nuestra última versión simplifica la forma en que se implementa el entorno de datos industriales, es escalable y seguro.
“La nueva arquitectura distribuida basada en nodos reemplaza los componentes rígidos con una base modular que proporciona un comportamiento consistente en todos los sitios al tiempo que reduce la complejidad operativa”.
Todo se remonta a la tendencia de la industria de pasar de la optimización de unidades o sitios específicos a hacerlo en toda la empresa, agregó.
“Es por eso que hemos diseñado específicamente productos de estructura de datos que permiten a los clientes escalar desde fábricas individuales hasta implementaciones globales utilizando un modelo operativo común con seguridad, gobernanza y gestión del ciclo de vida centralizados.
Con un crecimiento del mercado CAGR superior al 20% previsto y la adopción de productos de tejido de datos por parte de la industria de procesos considerada por debajo de la tasa de adopción por parte del sector de servicios financieros, las cosas solo pueden empeorar en la búsqueda de datos de calidad.