Me había negado a comenzar diciendo aquello de que “los edificios consumen el 40% de la energía y producen el 36% de las emisiones de gases de efecto invernadero”, pero es que la frase de marras es una muy buena base para empezar a escribir acerca de edificios y energía. Lo cierto es que, no siendo nadie ajeno al insostenible consumo de energía, emisiones de CO2 y otros contaminantes, y sus tendencias todavía demasiado tímidamente esperanzadoras, un 40% es mucho, mucho más de lo que nos podemos permitir.
Intentando buscar las razones, es más que evidente que llega un momento en que la arquitectura se descontextualiza, pierde su conexión con el entorno y la naturaleza, y el estilo llamado “internacional” aboga por una arquitectura válida para cualquier lugar, donde las máquinas resuelven aquello que el diseño no ha resuelto. Pero el año 1973 se encargó de dar un baño de realidad, y una crisis sin precedentes hizo que apareciesen las primeras leyes sobre energía y se concienciase sobre su uso. Terminada la barra libre de energía, llegaba la hora de pensar en cómo reducir el consumo, pero sin penalizar el confort (a todos los niveles).
En ese momento, tras los efectos de esa gran crisis, la arquitectura tuvo una gran oportunidad de reinventarse e introducir en sus principios (sean los Vitrubianos o los de Le Corbusier o cualesquiera que fundamenten el ejercicio proyectual de cada uno) la eficiencia energética. Dice Sigfried Giedion (Space, Time, and Architecture, 1941) que “la arquitectura se compenetra íntimamente con la vida de una época en todos sus aspectos (…) En cuanto una época trata de enmascararse, su verdadera naturaleza se transparentará siempre a través de su arquitectura”.
Así, en mi humilde opinión, el último cuarto del s. XX se caracterizará por la convivencia extraña de un trío mal avenido: entre un movimiento de arquitectura de revista totalmente ajeno a la evidencia de que los recursos energéticos son limitados; el ladrillo indiscriminado (la burbuja da para más de un post), también ajeno; y un movimiento que ha estado buscando en los orígenes de la arquitectura su esencia, buscando adaptarse al clima haciendo a su vez uso de los recursos tecnológicos más avanzados. Los dos primeros (y otros muchos factores, no culpemos solo a la construcción) hacen que la crisis de 1973 resurja hoy –quizás nunca se ha ido– en lo que llamamos “pobreza energética”, que se ha instaurado como una lacra que afecta a sectores de la sociedad que no parecían tan vulnerables en los años dorados de la burbuja.
Y, siendo realistas, con una tasa de nueva construcción baja por necesidad, y con un parque edificado que adolece de las consecuencias del trío de arriba, hace que la rehabilitación energética sea una de nuestras mejores “armas” en la lucha contra el cambio climático, y a su vez, una de las bazas del sector, tan duramente castigado en la actualidad. Pero el problema radica en el “agnosticismo” instaurado sobre los ahorros energéticos, que todavía no se entienden como un beneficio económico, social y medioambiental. Es, por tanto, nuestra responsabilidad (léase aquí la de los técnicos del sector de la construcción) el cuantificar y valorizar estos beneficios, para que instituciones financieras, instituciones públicas, empresas del sector y muy especialmente los usuarios, demanden la eficiencia energética en los edificios no como un extra, sino como algo que debe venir de serie.
En CARTIF llevamos muchos años trabajando en el sector de la rehabilitación energética y, muy especialmente, en cuantificar y valorizar los ahorros energéticos para que puedan ser una garantía tanto económica como social. Así, proyectos como OptEEmAL, de los que ya hemos hablado con anterioridad en este blog, trabajan capturando todo el conocimiento que hemos generado estos años en el desarrollo de metodologías de evaluación y buscan ofrecer herramientas que den soporte a este cambio de paradigma: desde la instauración del trabajo colaborativo y la compartición de riesgos durante el diseño y la ejecución de estos proyectos, hasta el soporte en la toma de decisiones a todos los actores involucrados a través del uso de herramientas de modelado y simulación.
Y, con todo ello, no buscamos más que recuperar el protagonismo de la eficiencia energética como mecanismo de proyecto en la arquitectura, que quizás harían a Vitrubio reformular sus principios como “firmitas, utilitas, venustas et navitas efficientum”.
Con este post me gustaría tratar de mostrar un ejemplo muy claro de cómo el empleo inteligente de un sistema de visión artificial adecuado puede resolver un problema importante en una línea de producción a un precio razonable.
La carrocería de nuestro vehículo está formada por multitud de piezas metálicas, cada una de ellas con su propio requerimiento. La industria de la automoción fabrica estas piezas mediante un proceso de conformado de chapas laminadas denominado embutición. En este proceso se coloca una chapa metálica sobre una matriz, se fija esta con un pisador y, posteriormente, un punzón empuja la chapa hacia la matriz generando la cavidad deseada.
En función de la temperatura de la chapa, se definen dos tipos de embutición: en frío y en caliente. A continuación, nos centraremos en la embutición en caliente, que se aplica principalmente en elementos de alto requerimiento estructural, como refuerzos, pilares, etc.
En este proceso, la chapa se calienta por encima de la temperatura de austenización, obteniendo una alta ductilidad y a continuación se realiza un enfriamiento rápido para lograr el endurecimiento martensítico de la chapa. Las piezas así obtenidas alcanzan una alta resistencia, se consiguen formas complejas y se reducen los efectos de springback. Esto permite, entre otras cosas, mejorar la seguridad pasiva de nuestros coches y reducir su peso.
En este proceso de fabricación, las chapas salen del horno a gran velocidad, a una temperatura en torno a unos 900 -950 ºC, y se detienen bruscamente en una posición fija. Posteriormente, un robot las recoge para introducirlas en la prensa lo más rápido posible, con el fin de evitar su enfriamiento antes del golpe de prensa.
El problema surge por la dificultad para garantizar una posición fija con paradores mecánicos. Esto es debido, entre otras cosas, a la velocidad de la línea, a la gran variedad de referencias, a las altas temperaturas de las chapas (se enfrían muy rápidamente en el punto donde existe un contacto), a las características internas del horno (puede llegar a medir 30 m), etc.
Una posición incorrecta supone que el robot falle en la recogida de la chapa o, lo que es peor, que la coja mal y la coloque incorrectamente en la prensa, produciendo un golpe de prensa erróneo y la parada de la línea, unida a un deterioro de los útiles.
En este caso, la visión artificial se presenta como la mejor elección para indicar al robot si la posición real de la chapa es la correcta. La tarea más importante del sistema de visión será segmentar correctamente la chapa en la imagen con el fin de determinar de forma precisa la posición de la misma.
A priori, dada la intensa radiación infrarroja que emiten las chapas debido a su alta temperatura, parece que la alternativa más fácil para conseguir esta tarea es emplear cámaras industriales infrarrojas. Esta solución presenta dos problemas: el elevado coste de estos equipos y la baja resolución de los sensores infrarrojos.
La zona de trabajo en la que se posicionan las chapas es muy amplia, no solo por el tamaño de las piezas, sino también porque en muchos casos se trabaja por lotes, llegando a manipular simultáneamente hasta cuatro unidades. Dada la baja resolución de estos sensores, es necesario emplear varias cámaras para aumentar la precisión con la que se define la posición de la pieza.
En CARTIF estamos desarrollando soluciones más económicas, empleando cámaras industriales dentro del espectro electromagnético del visible con una mayor sensibilidad en el rango del infrarrojo. La resolución de estas cámaras es bastante mayor que la de las cámaras infrarrojas, lo que permite así aumentar la precisión de las medidas.
Esto ha permitido a empresas como Renault obtener un sistema robusto y configurable que evita las paradas indeseables de la línea y alarga la vida útil de sus herramientas, lo que conlleva una mejora considerable en la línea de producción.
En los últimos años la definición del microbioma humano se ha postulado como una herramienta esencial para la medicina, farmacia, nutrición y otras disciplinas con el objetivo de entender el papel que tienen los microorganismos presentes en el organismo sobre la salud y la inmunidad. De hecho, el microbioma afecta al envejecimiento, la digestión, al sistema inmune, al estado de ánimo y a las funciones cognitivas.
Pero, ¿qué es el microbioma?
Existen distintas definiciones para este término. Coloquialmente, diremos que el microbioma humano es el conjunto de microorganismos (microbiota) y sus genes que se encuentran en nuestro organismo.
La investigación del microbioma comprende un campo de la ciencia asociado principalmente a los avances en la secuenciación del ADN/ARN y a la biología computacional. De este modo, el microbioma puede definirse como el contenido genómico de todos los microbioorganismos recuperados de un hábitat o ecosistema (por ejemplo; de saliva, heces o piel).
El estudio del microbioma se remonta al siglo XVII con el desarrollo de los primeros microscopios y los inicios de la ciencia de la microbiología. Sin embargo, ha sido en los últimos años cuando se ha producido el desarrollo de métodos rápidos de secuenciación, la reducción de los costes asociados a estas técnicas y el desarrollo de técnicas de manejo de datos, lo que ha permitido definir con más precisión el microbioma y sus constituyentes.
¿Por qué es importante?
Si tenemos en cuenta que el número de microorganismos que habitan en nuestro cuerpo está entre 10 y 100 billones (diez veces superior a nuestro número de células), que podemos contar con más de diez mil especies distintas y que los tipos de microorganismo varían mucho entre distintas personas, podemos pensar que el microbioma tiene un papel especial en nuestra salud. De hecho, el conocimiento de estos microorganismos, de las funciones de sus genes, de sus rutas metabólicas y regulatorias está ya permitiendo desarrollar estrategias para prevenir enfermedades y mejorar el estado de salud general.
Sin embargo, el microbioma de cada persona no es algo estático. Los desequilibrios nutricionales, el estilo de vida, el uso (y abuso) de antibióticos, la baja exposición a patógenos (o el exceso de higiene) modifican permanentemente nuestro microbioma.
Y ¿cuál es su relación con la dieta?
Existe una clara relación entre lo que comemos y el balance de nuestra flora autóctona que repercute directamente en nuestro estado de salud. De hecho, resulta interesante que las modificaciones en la dieta van siempre acompañadas con cambios en la microbiota y el enriquecimiento de sus correspondientes genes.
Dietas equilibradas pueden promover una microbiota propia adecuada y bien estructurada y, por el contrario, alteraciones de la composición de nuestra microbiota o reducción de algunos de los microorganismos que componen la diversidad de ésta, incrementan el riesgo de padecer enfermedades relacionadas con el estilo de vida como alergias, diabetes, obesidad y/o síndrome del intestino irritado. Además, un estado prolongado de estas situaciones se ha relacionado con alteraciones metabólicas.
Estudios recientes han demostrado que existen diferencias notables en la microbiota de las personas que siguen dietas ricas en carne frente a las que siguen dietas y estilos de vida más ancestrales, basados principalmente en el consumo de vegetales. Hay estudios que sugieren que un tipo de dieta rica en proteínas y grasa animal está asociada con una determinada flora mientras que dietas más ricas en carbohidratos se asocian con la prevalencia de otro de tipo de flora. Estas diferencias se han relacionado con el riesgo de desarrollar enfermedades como la aterosclerosis.
La malnutrición por exceso y por defecto tiene un impacto directo en la microbiota que favorece alteraciones de la misma que, finalmente conllevan a problemas asociados con incremento en la inflamación y problemas metabólicos. Se ha observado una fuerte influencia en las dietas pobres en nutrientes, en especial aquellas pobres en determinados aminoácidos, en la incidencia positiva de inflamación intestinal. Así mismo, la patogénesis de diversas enfermedades está asociada a determinados componentes de la dieta que promueven desórdenes en la microbiota.
Por tanto, cuanto mejor balanceada está la dieta, más diversa es la microbiota. Así, la intervención a través de dietas personalizadas, mejora la respuesta en individuos con baja riqueza de microbioma.
Y entonces, ¿se puede mejorar?
Sin duda, ¡se puede! La importancia de la alimentación, el equilibrio nutricional y estilo de vida tienen influencia directa en la composición de nuestra microbiota y de su actividad y, por tanto, directamente sobre nuestra salud. De esta relación surge el interés por desarrollar nuevas estrategias para personalizar nuestra dieta.
Alternativas Innovadoras low cost. El barómetro y cómo pensar fuera de la caja
Acabé mi anterior entrada comentando cómo un planteamiento ILM para desagregar consumos energéticos en una fábrica puede ser un reto insuperable, desde el punto de vista económico, para aquellas fábricas con consumos energéticos muy altamente distribuidos.
En el mercado existen propuestas comerciales para sistemas de medición industrial de los principales fabricantes de equipamiento como SIEMENS, ABB, SCHNEIDER,…capaces de proporcionar un seguimiento hiper-exhaustivo (varias medidas por segundo) de los consumos energéticos de los distintos elementos de una cadena de producción. Sin embargo, dichos sistemas no son nada baratos ni en el coste del hardware necesario, ni en la instalación informática y de comunicaciones requerida, ni en el coste de las licencias. A día de hoy, siguen siendo un lujo sólo al alcance de las grandes multinacionales que además disponen de varias fábricas similares en distintos emplazamientos. Por tanto, poseen una mejor capacidad de negociación de compra y una fácil y alta replicabilidad interna. Además, sus procesos productivos suelen estar altamente automatizados e informatizados a través de sistemas MES (Manufacturing Execution System) de última generación. Ya disponen de la infraestructura informática y de comunicaciones necesaria. Sólo les falta la inversión en hardware y la “ampliación” de las licencias software.
Para el resto de pequeñas y medianas fábricas, estas soluciones pueden suponer “matar moscas a cañonazos”, de tal forma que nunca se llegue a rentabilizar (en términos del ahorro producido) la inversión en monitorización empleada. Sin embargo, este tipo de fábricas cada vez están más interesadas en optimizar sus costes energéticos, pero empleando una inversión económica razonable respecto de sus volúmenes de facturación.
Todo estudiante de ciencias habrá oído alguna vez la supuesta anécdota de Niels Bohr y el barómetro, en alguna de sus múltiples versiones. Aunque la anécdota de Bohr y el barómetro no es real sino inventada, la moraleja de intentar pensar de forma diferente para resolver un posible problema sigue más vigente que nunca. La diferencia es que ahora lo llamamos “pensar fuera de la caja”. La pregunta ahora no es ¿cómo medir la altura de un edificio con la ayuda de un barómetro? Sino, ¿cómo se puede realizar la medición y monitorización de los consumos energéticos desagregados de una fábrica sin dejarse por el camino el presupuesto de inversión de un año?
La respuesta, como en el caso del barómetro, no es única, ya que dependerá de cada fábrica en concreto. Afortunadamente, la revolución del IOT está produciendo una economía de escala en algunos de los componentes necesarios. Continuando con los guiños a ‘Star Wars’, se podría decir que los sistemas low cost de monitorización de consumos energéticos pueden compararse con un caza X-wing formado por las siguientes alas:
El abaratamiento de los costes de la electrónica, que está permitiendo el desarrollo de nuevos sensores no invasivos de bajo coste, como pueden ser sensores de corriente eléctrica basados en efecto Hall, sensores de caudal por ultrasonidos, o sensores de temperatura por infrarrojos.
Las plataformas libres de hardware y software de captura y procesamiento de señales a través de dispositivos de bajo coste como Arduino, Raspberry Pi y similares.
La aparición de nuevos protocolos de comunicación inalámbrica orientados hacia la comunicación M2M (Machine To Machine) con características de bajo ancho de banda, bajo consumo energético y alta resistencia a las interferencias, entre otras Zigbee, BT LE, o Wi-Fi HaLow.
Los sistemas software de almacenamiento y tratamiento de todos los datos registrados, como los sistemas de bases de datos, de cálculo de múltiples informes de indicadores y pantallas de visualización de los parámetros más importantes, tanto residentes en servidores físicos ubicados en la intranet de la fábrica como en servidores virtuales alquilados en la nube.
Estas nuevas tecnologías no han alcanzado la madurez todavía y obviamente la industria puede ser muy reticente a su utilización. Si hay una cuestión que asusta a un responsable de producción o de mantenimiento son los sistemas experimentales que no han sido probados previamente durante años. Sin embargo, es necesario recordar que no estamos hablando de modificar los sistemas de control de los procesos y las máquinas, sino de montar un sistema paralelo a lo largo y extenso de la fábrica que permita la monitorización y registro de los consumos energéticos de los principales elementos y sistemas de producción.
Estamos hablando de la detección de las posibles ineficiencias energéticas. Estamos hablando de su corrección y de los ahorros económicos correspondientes. Y estamos hablando de hacerlo con un coste de inversión razonable, es decir, que se lo pueda permitir una PYME.
20 de julio de 1969, son las 20:18:04 UTC y después de 102 horas, 45 minutos y 39.9 segundos de viaje, “el águila ha aterrizado” y Neil está a punto de descender por la escalera y tocar una superficie desconocida por primera vez: “Un pequeño paso para el hombre, un gran paso para la Humanidad”. Aquel 1969, Neil Armstrong, Michael Collins y «Buzz» Aldrin cambiaron la historia a bordo del mayor cohete construido con destino a la luna.
Muchos lo habrán olvidado, otros como yo ni siquiera habíamos nacido, pero la carrera espacial sufrió una transformación digital similar a la que perseguimos para transformar la industria. El programa Apolo fue la culminación de aquella primera revolución digital en la exploración del espacio.
El alunizaje fue conseguido en parte gracias a la electrónica a bordo del módulo lunar, el ordenador de navegación del Apolo (AGC, del inglés Apollo Guidance Computer). El ordenador AGC fue uno de los primeros ordenadores basados en circuitos integrados digitales. Con “apenas” 32 kgs de peso y unos 55W de consumo, esta maravilla técnica era capaz de coordinar y controlar muchas tareas de la misión espacial, desde calcular la dirección y los ángulos de navegación de la nave, hasta comandar los controles de posición por reacción y orientar la nave en la dirección deseada. Asimismo, el ordenador incluía una de las primeras demostraciones de control «fly-by-wire” con los cuales el piloto no comandaba directamente los motores de la nave sino a través de unos algoritmos de control programados en el ordenador de vuelo. De hecho, el ordenador AGC fue la base para los siguientes controles “fly-by-wire” del transbordador espacial, así como de aviones militares y comerciales.
Pero como pasa con este tipo de innovaciones, no suceden de un día para otro sino a partir de innovaciones incrementales previas.
Durante los años 50, el MIT Instrumentation Laboratory (MIT IL) desarrolló el sistema de guiado de los misiles Polaris. Este sistema fue construido inicialmente con circuitos analógicos, pero decidieron empezar a usar circuitos digitales para garantizar la precisión requerida para calcular las trayectorias de los misiles y sus algoritmos de control.
Antes de que el presidente Kennedy fijase el ambicioso objetivo de “… viajar a la Luna en esta década …” siete años antes del primer alunizaje, y después de la puesta en órbita del Sputnik en 1957, el MIT IL comenzó un estudio de exploración de Marte mediante una sonda. El diseño de esta sonda sentó las bases del futuro sistema de guiado del Apolo e incluía varios giróscopos para orientar la sonda, un ordenador digital y un telescopio para orientar la sonda en relación a la Luna y las estrellas.
El lanzamiento del Sputnik avivó la ambición de los EEUU por ser el primer país en poner un hombre en el espacio, pero creó el debate público acerca del rol más adecuado para los pilotos en la carrera espacial. Una discusión similar a la actual respecto del rol del trabajador en las fábricas. ¿El astronauta debería ser otra “carga” más a bordo de la nave o tomar el control completo de la misma? Una vez que los pilotos de pruebas se ganaron la responsabilidad de tomar el control de las naves, numerosos test mostraron que era prácticamente imposible controlar todos los aspectos de las misiones debido a la las rápidas reacciones y la gran cantidad de mandos de control. Por lo tanto, los pilotos necesitarían algún tipo de ayuda automática y fiable, y esa fue una de las principales funcionalidades del ordenador AGC.
La fiabilidad se convirtió entonces en una de las principales preocupaciones de la misión. El programa Polaris tardó cuatro años en diseñar el control de guiado para un arma que debía permanecer en el aire durante varios minutos. La apuesta de Kennedy de poner un hombre en la luna en menos de siete años significaba desarrollar otro sistema de guiado y control para una nave espacial que debería funcionar sin fallos en un viaje de más de una semana de duración. Los niveles requeridos de fiabilidad eran, por lo tanto, más de dos niveles de magnitud superiores. Si un misil Polaris fallaba, se podría disparar otro. Un fallo en la nave espacial podría matar a un astronauta.
Mucha de la fiabilidad del viaje a la Luna estaría soportada por el ordenador AGC y en cierto momento del programa Apolo había demasiadas tareas planificadas (e.g. maniobras complejas) como para ser controladas con circuitos digitales independientes. Para llevar a cabo estas tareas hacía falta un software. Aunque este concepto apenas se tuvo en cuenta en el principio del programa Apolo, significó la diferencia entre el fracaso o el éxito de todo el proyecto. El ordenador AGC se convirtió en el interfaz entre el astronauta y la nave, que finalmente significaría que el ordenador “controlaba” la nave, una revolución para la época. Hoy en día, el software está en todas partes, pero en los años 60, el software era considerado como un conjunto de instrucciones en tarjetas perforadas. Los programas del ordenador AGC (fijados entre tres y cuatro meses antes de cada lanzamiento) estaban “cableados” mediante ferritas y cables en una memoria permanente (y muy fiable) pero ahorraron mucho tiempo, esfuerzo y presupuesto. De hecho, puede decirse que el software del Apolo era más un “firmware” utilizando la terminología actual.
El reto actual de revolucionar la industria a través de la transformación digital no puede ocurrir sin la ayuda de los denominados habilitadores digitales. Hace 48 años, los primeros circuitos digitales integrados y los primeros programas fueron los habilitadores que permitieron conseguir aquel “pequeño paso para el hombre”. Hoy, el típico “la transformación digital no es una opción”, puede sonar a cliché o eslogan comercial, pero echando una mirada hacia atrás en la historia, la transformación digital del programa Apolo significó la diferencia entre poner o no poner la primera huella humana en la Luna.
“La energía ni se crea ni se destruye, solamente se transforma”. Este es el enunciado más comúnmente conocido del Primer Principio de la Termodinámica. Sin embargo, lo que en muchas ocasiones olvidamos, es que la energía se degrada en mayor o menor medida en todas las transformaciones que experimenta en el mundo real. En consecuencia, la calidad de la energía no es la misma en todas sus formas y su utilidad en un determinado proceso o aplicación tampoco lo es.
Es evidente que no es igual 1 MWh de calor a 90ºC producido por una caldera de biomasa que 1 MWh de calor residual a 40ºC procedente de la actividad de una factoría. El primero nos es útil en un mayor número de aplicaciones (calefacción, agua caliente sanitaria, etc.) mientras que el segundo no podrá aprovecharse directamente para prácticamente ninguno de estos usos y, con frecuencia se pierde y se disipa en su entorno.
La ‘culpable’ de esta diferencia es la exergía, un término de renovada relevancia en nuestros días entre las preocupaciones de ingenieros, técnicos, actores políticos, etc. y que representa la fracción de la energía capaz de producir un trabajo, un efecto útil. En definitiva, se trata del ‘jugo’ que realmente nos interesa extraer de ella.
El calor residual de la factoría, aunque en menor medida que el producido por la caldera de biomasa, también posee esta capacidad y desecharlo sin más es un lujo que nuestra sociedad no puede permitirse.
En este sentido, nuestro uso de la energía, ya sea en edificios o industrias, debe abordar dos retos principales: (i) producir transformaciones energéticas más eficientes que minimicen la degradación de la energía, y (ii) aprovechar flujos de exergía contenidos en formas de energía de baja calidad que son habitualmente desechadas.
En CARTIF venimos desarrollando nuestra actividad en línea con estos objetivos a través de nuestra participación en diferentes proyectos.
Un claro ejemplo de ello es el proyecto LowUP(‘Revalorización de fuentes de energía de baja calidad para edificios e industrias’), coordinado por ACCIONA Construcción S.A. y en el cual nuestro centro desempeña un rol destacado, colaborando en el liderazgo de varias tareas y aportando nuestra experiencia en aspectos técnicos de simulación, instrumentación, control y monitorización de sistemas energéticos.
El proyecto propone tres soluciones tecnológicas innovadoras y diferenciadas, aplicadas a la calefacción y refrigeración de edificios (HEAT-LowUP y COOL-LowUP), así como al aprovechamiento de calores residuales en entornos industriales (HP-LowUP). El uso eficiente de fuentes de energía de baja calidad (que de otro modo serían desaprovechadas), y el desarrollo, mejora e integración de distintos sistemas individuales para la producción, almacenamiento y utilización final de esta energía, son los rasgos característicos del concepto global LowUP.
Tras seis meses desde el inicio del trabajo, celebramos la primera Asamblea General del proyecto, que resultó un éxito rotundo. En ella se presentaron los primeros avances focalizados en la revisión detallada de los diseños de integración de las tecnologías, la definición de requisitos de operación, control y monitorización, así como los primeros desarrollos tecnológicos y prototipos de los socios fabricantes.
Por todo esto, desde CARTIF, os animamos a seguir nuestros pasos y a aportar cada uno su granito de arena para seguir extrayendo todo el ‘jugo’ de la energía sin dar por perdida ni la más mínima gota 😉