Cada paisaje produce sensaciones específicas, diferentes, únicas. Al contemplar una pradera salpicada de árboles sentimos algo totalmente distinto a lo que sentiríamos si contemplásemos una zona desértica. Esto mismo ocurre con los paisajes culturales1. No nos producen las mismas emociones contemplar una iglesia románica que unas pinturas rupestres.
Numerosas investigaciones concluyen que existe una correlación significativa entre nuestra personalidad y las preferencias paisajísticas. Otras investigaciones defienden que la relación hombre-paisaje tiene una base «innata», que se remonta a las necesidades de supervivencia de los humanos primitivos. Su entorno exigía capacidades perceptivas y predisposiciones, que hoy en día -a nivel psicológico- siguen funcionando. Esto explica el por qué seguimos prefiriendo los paisajes abiertos y ligeramente llanos (poder ver a los depredadores), con vegetación y buen acceso al agua (cubrir necesidades vitales).
Se puede decir entonces, que el sistema afectivo que se pone en juego en la valoración de los paisajes es una consecuencia de estrategias personales más amplias relativas a la personalidad, factores innatos y la actitud del individuo hacia el mundo (potenciada por sus experiencias y la sociedad en la que vive).
Es decir, la valoración de los paisajes depende de factores totalmente subjetivos y, por lo tanto, difíciles de cuantificar. Entonces, ¿qué hago si quiero medir «lo que nos gusta» de cierto tipo de paisaje cultural?
Aquí es donde entra la llamada «computación afectiva», que no es otra cosa que el estudio y el desarrollo de sistemas y dispositivos que puedan reconocer, interpretar y procesar emociones humanas.
CARTIF dentro del proyecto SRURAL está aplicando este conjunto de técnicas para obtener el «valor de afección» de cualquier paisaje cultural («medir lo que nos gusta el paisaje»). Con este fin se viene desarrollando un sistema cognitivo que utiliza como entradas el lenguaje verbal y las expresiones faciales por un lado, y por otro, ciertas señales fisiológicas del sujeto (ritmo cardiaco, sudoración y temperatura corporal) mientras observa el paisaje mediante unas gafas de realidad virtual como dispositivo inmersivo.
Estas entradas se introducen en una red neuronal previamente entrenada mediante técnicas Deep Learning2 para obtener como salida el valor de afección de dicho paisaje.
Esta información es muy útil para la toma de decisiones de los gestores del territorio para, por ejemplo, orientar las campañas de promoción turística hacia zonas con un valor de afección alto, pero que no tienen un número significativo de visitas. También para hacer un perfilado y segmentación de turistas según el tipo de paisajes más afín y así hacer campañas de promoción focalizadas y, por lo tanto, más efectivas.
También pude utilizarse para saber cuándo es necesario tomar alguna medida correctora o por lo menos realizar algún estudio de causas, al ver que cierta zona de interés turístico con un número importante de visitas tiene un valor de afección relativamente bajo.
Para ser realmente útil, esta información tiene que ser filtrada y procesada (no podemos saturar a la persona encargada de tomar las decisiones), debiendo ser mostrada de la forma más amigable posible utilizando interfaces intuitivos y geolocalizando dicha información. Por ello, el sistema en desarrollo incorpora módulos específicos que mediante técnicas de Minería de Datos y Big Data, muestra al usuario de la aplicación la información ya procesada y lista para sacar conclusiones, lo que llevará rápidamente a la toma de decisiones objetivas basadas en datos.
1 Se entiende por paisaje cultural aquel paisaje que combina patrimonio natural y cultural, y que ha sido modificado por el ser humano para adaptarlo a sus necesidades en función de sus creencias, actividad económica, y sociedad que conforma. Los ejemplos más obvios de estas modificaciones son los cultivos tradicionales, los edificios y las infraestructuras.
En el año 2020, la Comisión Europea lanzó una propuesta de proyecto de investigación o («topic») con 10 millones de euros de presupuesto que perseguía el desarrollo de nuevas turbinas de generación Mini-hidráulica en Asia Central.
¿Qué tiene de interés esta zona remota del mundo para que la Comisión Europea financie allí un proyecto? Asia Central es un pivote geográfico de Eurasia y engloba las cinco repúblicas ex-soviéticas de Kazajistán, Kirguistán, Tayikistán, Turkmenistán y Uzbekistán. Se trata de una de las zonas habitadas de mayor antigüedad y como tal, ha sido testigo de ricas culturas y tradiciones como la antigua ruta de la seda. Sin salida al mar, es una zona de grandes recursos energéticos y minerales. En concreto, según un informe de 2019 de la Organización de Desarrollo Industrial de las Naciones Unidas, Asia Central tiene el segundo mayor potencial de generación Mini-hidráulica del mundo con 34.4 GW, y sólo es superada por Asia Oriental (China, Japón, las dos Coreas y Mongolia) con 75.4 GW. Sin embargo, a día de hoy, menos de un 1% de este potencial ha sido aprovechado, lo que supone que Asia Central es la región del mundo donde menos se ha desarrollado la generación Mini-hidráulica. Por tanto, parece evidente que detrás de este «topic», está el interés de la Comisión en abrir nuevos mercados para la industria europea de generación Mini-hidráulica.
¿Cuáles son las principales problemáticas que están impidiendo el desarrollo del sector en Centro Asia? Nos encontramos un variado abanico de barreras políticas, económicas, sociales, tecnológicas, legales y ambientales. Hay problemas comunes como la falta de información, la falta de financiación del sector privado, o la ausencia de incentivos legales. Algunos países de Asia Central tienen que lidiar con condiciones climáticas extremas, como por ejemplo, regiones de gran altitud donde es más probable que los arroyos se congelen en invierno. Además, es crucial considerar el concepto de nexo transfronterizo de Agua/Alimentos/Energía/Clima con visión de futuro para evitar desastres ecológicos como el del mar de Aral, que continúa su desecación a causa de la explotación insostenible de algodón.
El proyecto Hydro4U fue el ganador de esta convocatoria de la Comisión Europea y comenzó su andadura en junio de 2021 con una duración prevista de 5 años. Liderado por la Universidad de Múnich, el resto del consorcio lo completan fabricantes europeos de turbinas como Global Hydro Energy, entidades de Centro Asia como el International Water Management Institute o centros tecnológicos como CARTIF, que está liderando las actividades de replicación. En el marco del proyecto se están desarrollando dos nuevas plantas de generación Mini-hidráulica con diseños adaptados a las condiciones de la región, y que reducirán radicalmente los costes de planificación, construcción y mantenimiento, sin comprometer la eficiencia de la generación de electricidad. Las plantas se instalarán en dos enclaves ya seleccionados de Uzbekistán y Kirguistán.
En cuanto a CARTIF, un punto clave del trabajo que estamos llevando a cabo es el desarrollo de una herramienta de replicación orientada a futuros inversores o autoridades públicas con el objetivo de apoyar la toma de decisiones sobre nuevos proyectos de generación Mini-hidráulica. La herramienta se basa en un modelo computacional que integra un sistema de información geográfica (SIG) y datos estadísticos. La herramienta se va a implementar a nivel de cuenca vertiente, pudiendo ser aplicada en los dos principales ríos de la región: Syr-Daria y Amu-Darya. Está previsto que la herramienta integre varios módulos interactivos, con el objetivo de (1) visualizar el potencial sostenible de la generación Mini-hidráulica y la capacidad instalada, (2) simular escenarios de generación considerando las limitaciones del Nexo Agua-Alimentos-Energía-Clima, la sostenibilidad de los recursos e impactos socioeconómicos y (3) proporcionar recomendaciones técnicas y lecciones aprendidas relacionadas con la implementación de nuevos proyectos de este tipo.
La herramienta de replicación de CARTIF verá la luz a finales de 2025, y en este momento estamos trabajando en la definición del potencial sostenible de generación Mini-hidráulica, así como en el modelo Nexus de Agua-Alimentos-Energía-Clima a nivel de cuenca que nos permitirán simular escenarios futuros de generación que sean sostenibles con los recursos naturales.
Mantente informado de los avances del proyecto en la sección de noticias de la web de Hydro4U, así como sus redes sociales: Twitter y Linkedin.
Los investigadores cada vez nos enfrentamos más ante situaciones de «digitalizar» algo no digitalizado anteriormente, temperaturas, presiones, consumos energéticos, etc… para estos casos buscamos un sistema de medida o un sensor en un catálogo comercial: una sonda de temperatura, un presostato, una pinza amperimétrica para medir una corriente eléctrica,etc.
En ocasiones, nos vemos en la necesidad de medir «algo» para lo que no se encuentran sensores comerciales. Esto puede ser debido a que no son métricas habituales y no hay suficiente mercado para ese tipo de sensores o directamente, no existen soluciones técnicas comerciales disponibles por diferentes razones. Por ejemplo, puede ser necesario medir características como la humedad de corrientes de materias sólidas, o características únicamente medibles en un laboratorio de control de calidad de forma indirecta y que necesitan un tiempo elevado de experimentación.
También, en ocasiones, se requiere medir características en ambientes de gran dureza por altas temperaturas, como pueden ser los hornos de fundición, o ambientes con mucho polvo que saturan cualquier sistema convencional de medida y en algunas ocasiones puede ser necesario evaluar una cualidad que no se distribuye de forma uniforme (p.ej. cantidad de grasa en una pieza de carne, presencia de impurezas). Otro factor a tener en cuenta, no siempre es posible instalar un sensor sin interferir en el propio proceso de fabricación del material que deseamos medir, o la única forma es tomar una muestra para realizar su análisis fuera de línea y obtener un valor o característica un tiempo después, pero nunca en tiempo real.
En estas situaciones, se necesita recurrir a soluciones a medida que denominamos sensores inteligentes o sensores cognitivos. Además de llamarles así para que parezcan algo exótico o cool, son soluciones que necesitan usar una serie de sensores «convencionales» junto con programas y algoritmos, por ejemplo, de inteligencia artificial, que procesen las medidas devueltas por estos sensores comerciales para tratar de dar una estimación lo más precisa posible de la cualidad que deseamos medir.
Actualmente nos encontramos desarrollando este tipo de sensores inteligentes para diferentes industrias de proceso como la fabricación de asfalto, barras de acero o medicamentos (p.ej. píldoras) en el marco del proyecto europeo CAPRI.
Por ejemplo, en la fabricación de asfalto es necesario secar arenas de diferentes tamaños antes de mezclarse con el betún. Durante el proceso de secado en continuo de estas arenas, el tamaño más fino de arena, denominadofiller, se «desprende» en forma de polvo de árido de tamaño más grande y es necesario aspirar este polvo de forma industrial usando lo que se denomina filtro de mangas. Hoy en día, el secado y la aspiración de filler se realiza de forma que se asegura que todo el filler es extraído. El inconveniente de este proceso, es que, en realidad es necesario añadir filler adicional al mezclar las arenas secadas con el betún, pues es necesario en la mezcla, porque el fillermejora la cohesión de la mezcla rellenando huecos entre los granos de arena. Todo este secado y aspiración completo del filler supone un gasto energético que para tratar de minimizar sería necesario poseer una medida del mismo presente en la mezcla de arenas. Actualmente, esta medida se obtiene de forma puntual a través de un análisis granulométrico en laboratorio con una muestra de material antes de secar.
Dentro del proyecto CAPRI estamos trabajando en la compleja tarea de poder medir el flujo de filler aspirado durante el secado. No se encuentran en el mercado sensores garantizados para medir una gran concentración de polvo (200.000 mg/m3) en suspensión a temperatura elevada (150-200ºC).
Llevar a cabo el desarrollo de este tipo de sensores requiere realizar diferentes pruebas en laboratorio, bajo condiciones controladas que permitan verificar la factibilidad de dicha solución y posteriormente, también en condiciones de laboratorio, realizar unos ensayos calibrados que permitan asegurar que es posible estimar el flujo verdadero de filler aspirado en el proceso de secado de las arenas. El proyecto CAPRI ha completado con éxito las pruebas de este sensor y de otro pertenecientes a la fabricación de barras de acero y píldoras farmacéuticas.
El proyecto en su compromiso con la iniciativa de ciencia abierta impulsada por la Comisión Europea, ha publicado en su canal de Zenodo, diferentes resultados de estas pruebas de laboratorio que nos permiten corroborar el éxito preliminar de dichos sensores a falta de su validación y prueba en las zonas productivas de los socios colaboradores del proyecto. En un futuro próximo estaremos en condiciones de compartir los resultados del funcionamiento industrial de este y otros sensores desarrollados del proyecto.
Co-Autora
Cristina Vega Martínez. Ingeniera Industrial. Coordinadora del proyecto CAPRI H2020
La preocupación y concienciación medioambiental ligada al crecimiento esperado de la población, y con ello el incremento de la demanda de alimentos y la necesidad de asegurar la sostenibilidad de los recursos mediante procesos más eficientes ha generado un cambio en las tendencias de consumo.
Los consumidores, cada vez más preocupados por la salud y la necesidad de buscar alimentos más naturales, se inclinan por dietas con menor consumo de carne, e incluso, dietas veggie (vegana, flexitariana y vegetariana), lo que al final se traduce en un aumento en la búsqueda de proteínas alternativas de origen vegetal y en la generación de nuevos alimentos denominados plant-based.
España cuenta con 5,1 millones de veggies, pasando del 8% en 2017 al 13% en 2021, lo que supone un crecimiento de la población veggie del 34% tan solo en cuatro años. Por otra parte, un 56% de los consumidores indican haber comprado al menos alguna marca veggie por el mero hecho de la curiosidad ante el aumento de estos productos.
Cada vez es más común encontrarnos en los lineales productos alternativos elaborados a partir de proteínas vegetales. Los productos «plant-based» engloban desde alternativas vegetales a la leche, las ya conocidas bebidas vegetales, las cuales encabezan la lista de los productos más demandados, seguidas de los análogos cárnicos, pero también alternativas al huevo, al queso, al pescado, así como sus respectivos productos derivados.
Para entender mejor como se obtienen estos productos hagamos un recorrido por las materias primas más utilizadas actualmente que son, entre otras: insectos, algas, microproteínas, proteínas vegetales (legumbres y cereales), carne cultivada, que pueden someterse a diferentes procesos como la fermentación, extrusión o impresión 3D y con las que se pretende reemplazar la proteína de origen animal.
Las materias primas más extendidas y aceptadas son las proteínas vegetales, procedentes de legumbres y/o cereales. Con estas proteínas vegetales se elaboran las ya conocidas alternativas a los productos cárnicos o carne-sin carne. Todos estos términos hacen referencia a productos alimentarios con unas características sensoriales, sabor, textura, apariencia y valor nutricional similar a la de los productos cárnicos tradicionales.
A pesar del incremento de la oferta en productos análogos cárnicos, existen aún limitaciones para su uso extendido, siendo la principal aquella relacionada con las propiedades sensoriales. Para asegurar el éxito de estos productos, no basta con la utilización de proteínas de origen vegetal ya que el consumidor no está dispuesto a sacrificar la experiencia sensorial. Es por ello que, la industria alimentaria trabaja constantemente para mejorar la elaboración de estos productos, desarrollando y optimizando tecnologías y procesos en favor de altas cualidades organolépticas y nutricionales. En este sentido la tecnología de extrusión para la obtención de estructuras proteicas alternativas a la carne se presenta como una de las líneas tecnológicas de mayor potencial.
La extrusión es una tecnología muy versátil que se basa en la aplicación de alta temperatura y tiempos cortos, donde los ingredientes se tratan de forma continua y se fuerzan a través de una matriz que los forma y texturiza, produciéndose varios cambios de manera simultánea en la estructura y composición química de los ingredientes por medio de la aplicación de energía térmica y mecánica, lo que permite la obtención de una amplia gama de productos.
Para conocer un poco más acerca de este proceso y como actúa sobre las proteínas vegetales, es necesario diferenciar los dos tipos de vías que la tecnología de extrusión ofrece para obtener análogos cárnicos. Por un lado, la extrusión de alta humedad (también conocida como HME, high moisture extrusion), permite obtener productos fibrosos no expandidos que imitan la textura y sensación en boca de los productos cárnicos. Por tanto, serán la base proteica a la hora de elaborar un análogo cárnico. Por otro lado, la extrusión en seco origina los denominados texturizados vegetales proteicos (TVP, textured vegetable protein), característicos por su expansión y que requieren una hidratación posterior previa a su utilización.
Puesto que la extrusión de alta humedad permite crear un producto con una estructura similar a la de la carne, veamos que ocurre realmente con las proteínas vegetales durante este proceso denominado texturización:
Se podría explicar como un proceso en dos fases; en primer lugar la proteína se encuentra en su estado nativo, con una estructura compleja y sin acceso a su funcionalidad, al aplicar calor y fuerzas de cizalla durante el cocinado tiene lugar una desnaturalización de la proteína perdiendo su estructura nativa y dejando accesibles los sitios de unión para nuevos enlaces lo que facilita que en la segunda etapa de enfriamiento, la proteína se reorganice formando nuevos enlaces, dando lugar a un producto de naturaleza fibrosa.
El gran desafío de estos procesos está en la innovación en el uso de la tecnología de extrusión-texturización combinada con distintas mezclas de proteínas vegetales para obtener texturas mejoradas.
Esta tecnología implica un doble reto: por un lado, la elección de las materias primas, es un parámetro clave, siendo necesario elegir la fuente de proteína vegetal adecuada capaz de proporcionar las mejores características al producto final con un buen comportamiento durante el procesado y, por otro lado, lograr y optimizar las condiciones del proceso ajustando las variables de cada uno de los parámetros para llegar a la textura deseada. Por tanto, para lograr una mejor textura en análogos cárnicos hay que tener en cuenta: la elección de las materias primas, cuál es la fuente proteica, el contenido de proteína-aislado, concentrado, harina y la elección de las condiciones para los parámetros del proceso.
En definitiva, conseguir obtener productos similares a los de origen animal incorporando fuentes alternativas de proteínas como los cereales o leguminosas, e incluso algas, insectos o microproteinas, es uno de los retos a los que se enfrenta la industria de alimentación. Aunque la tecnología de extrusión permite obtener nuevos productos plant-based, es necesario continuar desarrollando esta tecnología para lograr el análogo «perfecto» que cumpla todos los requisitos en cuanto a textura, sabor y propiedades nutricionales.
En CARTIF trabajamos para integrar y optimizar el proceso de texturización con distintos ingredientes y sus mezclas, con el fin de conseguir análogos cárnico con las mejores propiedades. Un ejemplo de ello es el proyecto Meating Plants, donde se investiga el uso de proteínas de leguminosa para mejorar la calidad en la obtención de análogos cárnicos.
Esta frase que ya forma parte de la historia, y que a la mayoría nos suena familiar aunque pertenezcamos a otra generación, se utilizó por los astronautas a bordo de la nave espacial Apolo13 después de que explosionara un tanque de oxígeno en la misma, dos días después de que comenzará su misión espacial de aterrizar en la luna, cuyo lanzamiento había tenido lugar el 11 de abril de 1970. Durante días, este acontecimiento fue mundialmente seguido por millones de personas para saber la suerte que les depararía a los 3 astronautas a bordo de la nave. Mientras tanto, desde la NASA se dedicaron a generar a contrarreloj una réplica digital mediante simuladores controlados por ordenador que replicarían las condiciones que se estaban produciendo en el espacio. Este modelo, que era fiel a la realidad, les permitía predecir el comportamiento que tendría la nave en el espacio para encontrar la solución más adecuada para poder traer de vuelta a la tripulación. Se podría decir que esta fue la primera aproximación hacia el concepto de gemelo digital.
Existen muchas definiciones diferentes del concepto de gemelo digital, o Digital Twin en su nombre en inglés, una de las primeras fue dada por Michael Grieves, experto en la gestión del ciclo de vida de los productos, cuya definición estaba centrada en la comparación virtual entre lo que se había producido con el diseño previo del producto, con el objetivo de mejorar los procesos de producción1. El campo de aplicación de los gemelos digitales es muy amplio, así como sus definiciones posibles, pero en términos generales podemos considerar que un gemelo digital es la representación digital de un activo físico, o de un proceso o sistema, del mundo físico real.
Los gemelos digitales se basan en la fidelidad de los mismos con la realidad, con el mundo físico, que nos permitan realizar predicciones futuras y optimizaciones en los mismos, donde se pretende que ambos ecosistemas, el del mundo físico y el ecosistema del gemelo digital (con la representación del mundo virtual), co-evolucionen entre sí, es decir, que se vean afectados el uno al otro y de un modo sincronizado. Esto es posible debido a que ambos modelos están conectados automáticamente de un modo bi-direccional. Cuando se produce solo la conexión automática de un modo uni-direccional, y que iría del modelo real existente en el mundo físico al modelo digital del mundo virtual, no podemos llamarlo como tal un gemelo digital, para estos casos recibiría el nombre de sombra digital. Un modelo digital por sí solo no podría considerarse un gemelo digital si no existe conexión automática entre el mundo físico y el virtual. El uso de Tecnologías de la Información y la Comunicación (TIC) junto con las técnicas de Inteligencia Artificial, entre ellas el aprendizaje automático o Machine Learning, permiten al gemelo digital aprender, predecir y simular comportamientos futuros para mejorar su operación.
Y todo esto del gemelo digital, ¿para qué?
El uso de los gemelos digitales se puede utilizar en numerosos campos, por ejemplo en las líneas de fabricación industrial, para mejorar los procesos de producción, o aspectos como su sostenibilidad energética y ambiental, campos en los que proyectos como ECOFACT están trabajando actualmente. Otro uso de los gemelos digitales se podría dar en las ciudades inteligentes o Smart Cities, gracias a lo cual se podría mejorar la gestión vial, la recogida de residuos, etc. A nivel edificio puede ser útil su aplicación tanto a nivel terciario (aquellos edificios dedicados al sector servicios) como puede ser un aeropuerto (donde se podría utilizar para predecir y gestionar más adecuadamente el edificio basándose en patrones de uso, asociados al tráfico aéreo programado) así como un edificio comercial o industrial, centrándonos en este caso en el edificio en sí, y no tanto en la línea de producción comentada anteriormente. A nivel residencial, el uso de gemelos digitales del edificio nos podrían ser también de gran utilidad, ya que podríamos predecir el comportamiento térmico del mismo, asociado a patrones de uso, para mejorar el acondicionamiento térmico del ambiente interior y minimizar el consumo de energía.
Desde CARTIF llevamos ya tiempo trabajando en la creación de modelos digitales de edificios basados en BIM (Building Information Modelling), con diferentes propósitos, como puede ser la mejora de la toma de decisiones a la hora de realizar proyectos de renovación profunda de edificios, con la finalidad de obtener la renovación más adecuada y conseguir una reducción de tiempo y coste en los mismos, con proyectos como OptEEmAL o BIM-SPEED. Estos modelos BIM, funcionarían como un facilitador para la integración de los sistemas estáticos (mundo físico) y dinámicos (mundo lógico proveniente de datos de redes IoT-Internet of Things) de un edificio, además de proporcionar el control en todas las fases del ciclo de vida de un edificio, desde su diseño, construcción, comisionado de sistemas, la fase de operación y mantenimiento, así como la posible demolición.
Concepto de vinculación del mundo físico y digital a través de gemelos digitales basados en modelos BIM.
El reto que tenemos por delante en los próximos años, centrado en conseguir ciudades climáticamente neutras, que sean más sostenibles, funcionales y también inclusivas, hace que el uso de los gemelos digitales pueda ser de gran ayuda y vayan a ser cada día más utilizados y aplicados en estos ámbitos.
Es un hecho conocido cómo nuestro entorno ha cambiado vertiginosamente en los últimos años. Este entorno se encuentra en constante transformación, con incertidumbres y aspectos de difícil predicción.
El sector de la construcción en particular, no ha estado ajeno a dichos cambios. En Europa tiene un gran peso en la recuperación de las economías, presentando una evolución positiva que se espera se siga manteniendo. Actualmente se puede hablar de la confluencia de dos corrientes que afectan a dicho crecimiento. Por un lado, una que lo favorece: los estímulos que le llegan con los fondos Next Generation. Pero por otro lado, la escasez de materias primas y el aumento de precios al que se suma el problema recurrente de la escasez de mano de obra actúan en su contra. Así y tal como indicaba en sus previsiones a finales de 2021 el informe de Euroconstruct, el sector de la construcción a nivel europeo todavía conservará inercia para crecer en 2022 (3,65%), si bien para 2023 (1,5%) y 2024 (1,2%) se considera un avance más moderado.
En el caso de España, también se apuntaba a un crecimiento del 8% en 2022. Sin embargo, la incertidumbre ha aumentado debido a aspectos como la evolución de la inflación y el despliegue del Plan de Recuperación sufragado por los citados fondos europeos. Si bien estos fondos, ofrecen un gran potencial para el crecimiento de la actividad, principalmente en el caso de la rehabilitación, también es cierto que esa incertidumbre no permitirá alcanzar todo el desarrollo que se podría prever.
Además de los problemas a los que se está enfrentando la economía, el sector también tiene que hacer frente a grandes retos a nivel europeo como son la sostenibilidad y la digitalización. Tradicionalmente el sector de la construcción no ha prestado la misma atención que otros sectores industriales a la innovación. Poner el foco en estos aspectos debe permitir un cambio en esta industria, siendo ambas indudablemente, la vías de innovación del sector.
Es necesario por lo tanto pensar en un nuevo enfoque, siendo la innovación una oportunidad para crear valor. Una manera de acelerar este proceso de innovación y mejorar la calidad de sus resultados pasa por la investigación colaborativa.
Desde la UE se está trabajando activamente para fortalecer los marcos que soporten los enfoques de innovación abierta. El paradigma de la innovación abierta consiste en «un modelo de innovación basado en una red y colaboración, en la co-creación entre todos los actores de la sociedad traspasando los límites organizacionales mucho más allá de los esquemas normales de colaboración. Este modelo permite alcanzar una gran ventaja competitiva, así como beneficios de la innovación para un gran número de colaboradores«.
Un buen ejemplo de proyecto europeo colaborativo de innovación abierta es el proyecto Metabuilding Labs en el que CARTIF participa y entre cuyos objetivos está el construir un sistema de innovación para el sector. Este comprenderá a los sistemas nacionales de innovación organizados como «metaclusters» en forma de Plataformas Tecnológicas Nacionales de la Construcción. Algunos de estos sistemas ya existen y en otros casos será necesario desarrollarlos como parte del proyecto.
Con su desarrollo se busca un tipo de innovación abierta, reuniendo a todas las partes interesadas de la cadena de valor del entorno construido en un nuevo ecosistema de innovación. Todo ello a través de una plataforma digital sectorial y de una red supranacional de instalaciones, capacidades y servicios de prueba OITB (Open Innovaton Test Beds). Esta red abarca 12 países con un punto de entrada único, la plataforma.
El objetivo de los bancos de prueba de innovación abierta, es poner los nuevos avances tecnológicos al alcance de las empresas y usuarios. Esto permite avanzar en la introducción de componentes y elementos en el mercado, pasando de la valoración en laboratorios a prototipos en entornos industriales.
El desarrollo de la plataforma permitirá una comunicación fluida y un mapeo dinámico de los activos y de los recursos del ecosistema tanto a nivel nacional como regional. Las Pymes innovadoras, tendrán así acceso a los recursos, buscando involucrarlas y dando apoyo. Así se logrará una masa crítica aprovechando las redes de trabajo del consorcio que les permita desarrollar y probar nuevas soluciones innovadoras de envolventes de edificios.
Dentro de estas instalaciones de prueba que se ofertarán se encuentran las O3BET Building Enveloped Testbeds. El consorcio diseñará, desarrollará y proporcionará ocho instalaciones de prueba innovadoras para elementos de envolvente de edificios. Estas instalaciones a escala 1:1, en condiciones reales, asequibles, industrializadas y con todos los sensores y equipamientos necesarios permitirán hacer de puente entre las pruebas de laboratorio y los edificios a gran escala, manteniendo bajo control todas las condiciones interiores necesarias y dejando que las condiciones exteriores varíen en un entorno real.
O3BET comprende Open Source, Open Data y Open Access.
Open Source. Se diseñará como un modelo BIM abierto accesible a todos los actores ,que aproveche las máximas capacidades de esta metodología para que socios y terceros las repliquen fácilmente en toda Europa.
Open Data. Para cualquier ensayo, los datos monitoreados se consolidarán y se almacenarán en una plataforma de datos abierta, otorgando el acceso a todos y como tal reforzar la ciencia y la innovación abierta.
Open Access. En el contexto de OITB, aplicable también para O3BET. Cualquier usuario interesado puede acceder a las instalaciones, capacidades y servicios de los bancos de prueba, independientemente de si es socio del consorcio o no. Los miembros de la plataforma Metabuilding Labs tendrán condiciones más favorables. Se buscará la forma de facilitar la participación de las PYMES considerando su tamaño y capacidad para encontrar sus instalaciones de prueba más adecuadas.
Con el desarrollo de este tipo de colaboración se añade un componente al enfoque tradicional de la innovación, potenciando una participación más cercana a la fase productiva, de desarrollo de productos y tecnología y favoreciendo la creación de valor. Obviamente, las dificultades actuales para un nuevo crecimiento empresarial (particularmente en la construcción) no van a solucionarse únicamente con este tipo de iniciativas, pero si pueden colaborar en la consolidación de su progresiva y necesaria transformación.
«Innovar es una actividad de riesgo cuyo principal riesgo es no practicarla»