Cuando los edificios históricos hablan (II)

Cuando los edificios históricos hablan (II)

En la primera parte de este post, ya describimos la importancia social y económica que tiene la conservación del patrimonio construido, y prometimos que entraríamos en más profundidad a describir los tres principales aspectos que deben vigilarse (en el argot técnico decimos “monitorizarse”) para garantizar esa conservación:

  • La temperatura y la humedad relativas
  • La iluminación (luz natural y artificial).
  • Los contaminantes.

Como lo prometido es deuda, en este post nos vamos a centrar en el primer punto, que nos hace vérnoslas con los más “malos” del lugar. La humedad relativa y la temperatura son muy dañinos en los efectos que pueden causar en los materiales de que están hechos los edificios históricos. Echando mano de la Física, la humedad relativa es un indicador muy útil sobre el contenido de vapor de agua en el aire, y, a su vez, la temperatura indica el nivel de energía cinética (movimiento, para entendernos) de las moléculas de ese aire.

Ambos parámetros varían en función de las condiciones meteorológicas locales, de las acciones del hombre en el medio y de las condiciones de conservación de los edificios históricos. Esto significa que vamos a tener una atmósfera que envuelve a esos inmuebles con una cantidad mayor o menor de vapor de agua a una temperatura determinada, influenciando definitivamente en la estabilidad físico-química de los materiales de que están construidos, o incluso, de que se componen los objetos que atesoran.

En este sentido, no es desdeñable el efecto que causamos las personas, tanto por nuestros cada vez más exigentes requerimientos de confort, como por el número de visitantes. Podemos influir en la humedad relativa y la temperatura de tal forma que se alcancen valores inadecuados. Los efectos de las personas se suman a los del clima local (más o menos húmedo o cálido), a los del lugar (estanqueidad y capacidad de ventilación), a los derivados de la proximidad de fuentes de calor (calefacciones, superficies de vidrio soleadas y sistemas de iluminación artificial antiguos) y de la proximidad de fuentes de frío (muros exteriores o sistemas de aire acondicionado), y también a fuentes de humedad (goteras, fugas e inundaciones).

El factor principal a controlar por el riesgo de deterioro directo que puede originar es la humedad. La cantidad de vapor de agua del aire da lugar a cambios dimensionales como la conocida dilatación y contracción de maderas, que puede desencadenar fracturas y grietas cuando se dan fuertes fluctuaciones. Además, los valores extremos de humedad relativa provocan el reblandecimiento o la desecación de materiales orgánicos como los adhesivos y aglutinantes. Pero también afecta a la estabilidad de materiales inorgánicos, como metales, acelerando los procesos de corrosión, sobre todo en presencia de sales. En condiciones de mala ventilación y suciedad, la alta humedad relativa originará la proliferación de seres vivos causantes de biodeterioro (desde microrganismos hasta roedores… ¡un asco!), e incluso problemas para nuestra salud como vemos en la imagen.

Por su parte la temperatura acelera las reacciones químicas y favorece la actividad biológica. Contribuye al reblandecimiento de ceras y adhesivos y a la pérdida de adherencia entre distintos materiales, como los esmaltes.

Quizá leer todo esto provoque un poco de desazón (y hasta picores…) Entonces, ¿qué podemos hacer para que estos efectos adversos no ocurran? La respuesta es tan sencilla como razonable: evitar los niveles demasiado altos o demasiados bajos de temperatura y humedad relativa, garantizando la mayor estabilidad posible.

Siguiendo las indicaciones del IPCE (Instituto de Patrimonio Cultural de España, dependiente del Ministerio de Cultura) que dispone el Plan Nacional de Conservación Preventiva (PNCP), para la evaluación de riesgos derivados de los factores microclimáticos de que venimos hablando deben vigilarse tres aspectos:

  • Los niveles extremos de humedad relativa y temperatura del aire.
  • La magnitud y velocidad de las fluctuaciones de humedad relativa y temperatura del aire.
  • La proximidad de focos de humedad y de fuentes de emisión de calor y frío.

Toda una gama de sensores está disponible en el mercado para monitorizar la temperatura y la humedad, bien de forma continua, bien de forma puntual (ver imagen). Eso sí, hace falta saber tratar, interpretar e integrar convenientemente los datos que proporcionan.

Lo que no es tan frecuente es usar métodos alternativos para evaluar los efectos de la humedad sobre los materiales del patrimonio construido. Incluso antes de que aparezcan y sea peor el remedio que la enfermedad. CARTIF es pionero en la utilización de escáneres láser para hacer esa evaluación.

Un reciente artículo publicado en la prestigiosa revista Studies in Conservation y los desarrollos que viene realizando para el proyecto de investigación Europeo INCEPTION muestran que a la vez que se documenta en 3D un edificio histórico, se puede saber el nivel de humedad presente en un tipo de material concreto. Todo un 2×1 a tener en cuenta en los tiempos que corren de gasto mínimo en conservación. El claustro de la Catedral de Ciudad Rodrigo (Salamanca) ha sido el lugar para los ensayos.

La Guerra de las Eficiencias (Episodio V) – El payback contraataca

La Guerra de las Eficiencias (Episodio V) – El payback contraataca

Cuidado, no acabe costando más el collar que el galgo.

En mi anterior entrada hablé de lo recomendable que podría ser para una fábrica desagregar (por medida directa y no por estimación basada en valores nominales), los consumos energéticos de la fábrica entre las distintas líneas, maquinarias y sistemas que la componen. Bromas Jedi aparte, lo cierto es que dicha desagregación es un ejemplo de la conocida regla “medir para conocer, conocer para controlar, y controlar para mejorar”. Entonces, si descendemos a un enfoque más práctico, la disponibilidad y estudio de dicha información permitirá:

  • elaborar un mapeo de los consumos energéticos de la fábrica.
  • visualizar, a través de un simple gráfico de sectores, las contribuciones energéticas de los distintos elementos.
  • establecer prioridades sobre qué zonas o máquinas deben ser modificadas o reemplazadas por su baja eficiencia energética.
  • comparar entre sí la eficiencia energética de las distintas líneas.
  • comparar el coste energético de los distintos productos fabricados en una misma línea.
  • detectar consumos inapropiados  por  mal  funcionamiento  de  los  aparatos,  o protocolos de trabajo sub-óptimos

De acuerdo. Ya hemos convencido a los directivos de la fábrica de la conveniencia de medir para mejorar y hacerlo a través de la desagregación de consumos. ¿Cómo se pone en marcha?

El planteamiento más obvio sería monitorizar el consumo energético de cada aparato con su correspondiente sensor o medidor. Para el consumo eléctrico, se requerirá la instalación de un analizador de redes en el armario eléctrico donde se encuentran las protecciones eléctricas asociadas a dicho equipo. El proceso, siempre y cuando haya espacio disponible en dicho armario, suele requerir el corte del suministro eléctrico a la máquina durante un periodo de tiempo de escasos minutos. En el caso de maquinaria cuyo consumo energético sea gas natural, el proceso se complica y encarece. Aquí será necesario seccionar la tubería de suministro del gas para instalar el nuevo contador. Los requisitos de seguridad y revisión de las nuevas soldaduras requerirán una interrupción del suministro de entre 24 y 48 horas.

Adicionalmente, puede haber máquinas o equipos que requieran un consumo importante de aire comprimido o energía térmica de calefacción (o refrigeración) en forma de agua caliente (o fría). En estos casos, los contadores específicos deberán ser instalados en las tuberías de suministro de los correspondientes servicios.

En todos los casos, antiguamente, los medidores disponían de un mecanismo mecánico (o electrónico) de conteo y acumulación. Periódicamente, un empleado se encargaba de anotar sus lecturas en el libro de registro correspondiente, cuyas lecturas serían después introducidas manualmente en el sistema informático de gestión de costes. Sin embargo, hoy en día, este planteamiento está obsoleto puesto que, como todo proceso manual de toma de datos, es costoso, ineficiente e induce a múltiples errores. Por tanto, no solo habrá que instalar los medidores de consumo, sino que dichos modelos deberán estar equipados (todos los modelos industriales lo están) con un módulo de comunicaciones que permita enviar los datos medidos a un sistema informático de almacenamiento en base de datos. También será necesario desplegar una nueva red de comunicaciones (o ampliar la existente si fuera el caso) para comunicar todos los nuevos sensores instalados con el sistema informático, que periódicamente grabará los datos de los consumos energéticos.

Este tipo de monitorización de consumos se conoce como  Intrusive  Load Monitoring  (ILM).  Su ventaja es la precisión de los resultados, pero su gran desventaja reside en los altos gastos que conlleva. En fábricas donde los consumos estén altamente distribuidos entre multitud de máquinas, el coste en equipos e instalación de un sistema ILM puede suponer una gran inversión frente al coste anual del consumo energético de la fábrica.

No se debe olvidar que la finalidad de un sistema de desagregación de consumos como el considerado es ayudar a reducir el consumo energético y por tanto el coste asociado a dichos consumos. Obviamente, no se puede predecir con exactitud los ahorros económicos que la desagregación de consumos producirá, por lo que se suelen usar rangos basados en experiencias previas, con los valores más y menos desfavorables. Por muy amplia que sea la horquilla de ahorros posibles, si la inversión inicial es desmesuradamente alta, las correspondientes tasas de retorno de Inversión o ROI, estarán por encima de cualquier umbral aceptable por parte del correspondiente director financiero.

Continuará…

Piensa en verde

Piensa en verde

Y abrimos esta entrada dejando constancia por escrito de que no estamos patrocinados por una conocida marca de cervezas. Nos atrevemos a hablarte en imperativo porque queremos, literalmente, instarte a hacer lo que dice el título: pensar en verde.

A finales del año pasado, la compañía Pantone® (una autoridad en el ámbito del color) eligió el Greenery como el color del año 2017 y, haciendo un poco de prospectiva, nos hemos dado cuenta de que este color se está aplicando en multitud de conceptos que van más allá de la moda o las tendencias de decoración.

¿No te lo imaginas? Mira:

La tecnología también es verde. Hace ya un tiempo, os hablamos en el blog del concepto “re-naturalización de las ciudades” y de la importancia de desarrollar acciones inspiradas en la naturaleza para afrontar los desafíos ambientales en el día a día de los ciudadanos. En CARTIF ya teníamos un proyecto en marcha y la semana pasada comenzamos otro (apúntate el nombre: Urban GreenUp). Ambos implican que, en ciudades españolas como Valladolid y Alcalá de Henares, los muros verdes, los sumideros de carbono, los caminos vegetales y los módulos de polinizadores van a llegar para quedarse. Esto nos lleva a sugerirte que, si empiezas a ver soluciones tecnológicas basadas en la naturaleza dentro de tu ciudad, te animes a conocer más sobre ellas, que no te oigamos decir “¡ni se os ocurra poner una colmena en mitad de mi calle!”.

La psicología también es verde. Te animamos a conocer, interiorizar y aplicar el concepto de inteligencia ecológica. “La inteligencia ecológica es la capacidad de vivir tratando de dañar lo menos posible a la naturaleza. Consiste en comprender qué consecuencias tienen sobre el medio ambiente las decisiones que tomamos en nuestro día a día e intentar, en la medida de lo posible, elegir las más beneficiosas para la salud del planeta. La paradoja reside en que cuanto más coherentes somos con su bienestar, más invertimos en el nuestro”. El psicólogo Daniel Goleman es el autor de esta frase y resume a la perfección la importancia de mirar a la naturaleza para favorecer el desarrollo sostenible, es decir, satisfacer las necesidades de nuestra generación sin comprometer la capacidad de las generaciones futuras para satisfacer las suyas.

Las grandes multinacionales nos cuentan que quieren ser verdes. Y nosotros vamos a pensar que quieren ser verdes de verdad. Nos hallamos muy expectantes ante las últimas noticias surgidas sobre la compañía Apple®. En su última memoria de Responsabilidad Corporativa, parecen desvelar que llegar a fabricar su iPhone® con materiales reciclados se encuentra entre sus prioridades de futuro. Para ello, afirman estar trabajando en el (I+D)desarrollo de un nuevo robot ,en su línea de producción, que separe y recicle los materiales de un smartphone usado.

Pantone® nos define este color del año 2017 como “un tono refrescante y revitalizante que simboliza los nuevos comienzos” … ¿te animas a “probártelo”?

Tratamiento de imágenes aéreas

Tratamiento de imágenes aéreas

Ya os habréis dado cuenta de que los drones son cada vez más utilizados hoy en día. La razón principal es la disminución de su precio, por lo que tomar imágenes aéreas usando drones es más competitivo que usar otros dispositivos, como aviones, helicópteros o satélites.

Esto permite realizar campañas de medición especializadas, en lugar de utilizar imágenes de bases de datos, lo que posibilita la utilización de imágenes más detalladas.

Pero, ¿qué es la fotografía aérea y cómo funciona? La fotografía aérea no es sólo el proceso de tomar fotografías desde el aire, sino también el tratamiento de estas imágenes. Hay muchas variables involucradas en la adquisición aérea de imágenes que deben ser consideradas para asegurar que los datos sean lo suficientemente útiles para obtener los resultados deseados.

La principal ventaja de las imágenes aéreas es su capacidad para ver elementos del paisaje, que son muy difíciles de ver desde el nivel del suelo.

Las fotografías aéreas se toman en dos formas básicas, oblicuas o verticales, y ambas tienen usos y aplicaciones diferentes.

Oblicuas: estas imágenes se toman generalmente en ángulo, típicamente de 45 grados, pero puede ser cualquier ángulo que dé la mejor visión del área fotografiada. La imagen oblicua se utiliza principalmente en arqueología para tomar un encuadre más amplio de la zona bajo estudio y el área alrededor de ella, y también para dar profundidad. Casi siempre se toman a una elevación mucho menor que en el caso de la fotografía vertical, y su aplicación es bastante limitada ya que a menudo solo sirve para un propósito muy específico. Estas imágenes se adquieren desde pequeñas aeronaves fijas, como drones, y son perfectamente adecuadas para el monitoreo de la erosión y el desgaste de monumentos a través del tiempo.

Verticales: tomar una fotografía cenital sobre un paisaje es la forma más habitual de la fotografía aérea. Es una vista en planta, por lo que no hay perspectiva que distorsione la imagen. Por otro lado, es difícil interpretar las características de la zona fotografiada, tales como cambios de altura.

Aplicaciones de las imágenes aéreas

En arqueología: la fotografía aérea es ideal para localizar monumentos perdidos, especialmente aquellos que no son visibles a nivel del suelo, los que están bajo el suelo y no se pueden ver a pie y los que sólo se pueden ver bajo ciertas condiciones.

En agricultura: los agricultores pueden obtener informes sobre sus campos de cultivo, así como datos estadísticos, utilizando imágenes aéreas multiespectrales de dispositivos especiales, como cámaras térmicas. CARTIF tiene experiencia en la utilización este tipo de dispositivos en proyectos de I+D (más información).

En el estudio del cambio climático: es posible detectar ríos que se estén secando, ver la reducción de los lagos interiores, bosques moribundos, etc. Los investigadores pueden almacenar registros a lo largo los años para estudiar los efectos locales del cambio climático y los riesgos para los ecosistemas locales. Las fotografías aéreas localizadas son fundamentales para ese propósito.

En otras ciencias de la Tierra: también pueden usarse para estudiar el proceso de cambios naturales, como variaciones en el suelo y la geología en el tiempo, así como cambios en el terreno subyacente que conduce a desastres como deslizamientos de tierra.

Energía e infraestructuras: disminuir ciertos riesgos al instalar un negocio, acelerar la planificación en el trazado de tuberías, conocer la composición de la superficie del terreno y predecir el impacto ambiental utilizando los datos de las imágenes aéreas.

Ingeniería y construcción: desde la selección y evaluación de obras hasta la evaluación de estructuras existentes, esta tecnología facilita cada paso del proyecto.

Defensa e inteligencia militar: las agencias de defensa, los contratistas militares, y las fuerzas y cuerpos de seguridad del Estado se enfrentan continuamente a nuevos desafíos. Las imágenes aéreas proporcionan una ventaja incomparable al planear operaciones estratégicas y tácticas, realizar misiones de combate y desarrollar simulaciones.

Respuesta a desastres: cuando el tiempo cuenta, las imágenes aéreas proporcionan información crucial para dar respuesta a desastres y asegurar las operaciones emergencia y rescate. CARTIF está trabajando en un proyecto relacionado con estos objetivos:

Desarrollo urbano: el uso de imágenes aéreas de alta resolución ha ganado popularidad entre los planificadores, desarrolladores e ingenieros en todo lo relacionado con el desarrollo urbano. La información de las fotos aéreas, cuando se combina con un Sistema de Información Geográfica (SIG), se utiliza entre otras cosas para el análisis, planificación estratégica y evaluación de la planificación urbana. CARTIF lleva trabajando en esta línea de investigación durante mucho tiempo.

Avances infinitos mediante elementos finitos

Avances infinitos mediante elementos finitos

Las herramientas CAE están a día de hoy muy extendidas y el análisis por elementos finitos está teniendo mayor impacto de lo que había tenido hasta el momento. Las capacidades que presenta la ingeniería asistida por ordenador (CAE) se venían utilizando en campos muy concretos donde los recursos eran prácticamente ilimitados. Por ejemplo, en el ámbito aeronáutico, los diseños de los aviones  buscan mejorar la eficiencia de vuelo y  dentro de la fórmula 1, el objetivo está puesto en aumentar la fuerza de pegado del coche contra el suelo.

Actualmente no existe ningún campo de la ciencia o de la ingeniería que no se haya visto impulsado  y en algunos casos transformado por los programas de simulación o simulación computacional. En la industria actual, independientemente del sector, se está comenzando a alcanzar el potencial del cálculo numérico para simular la realidad física que se presenta en cualquier tipo de problema o desarrollo industrial.

La industria deportiva hace gala de este hecho, por ejemplo, SPEEDO fabrico trajes de baño, que mediante un efecto de compresión, producían  ligeros cambios en la forma del cuerpo del nadador logrando reducir la fuerza de arrastre más de un 15 por ciento. Estos trabajos empezaron a dar sus frutos en  los JJ.OO. de Pekín donde el 94% de las medallas fueron a parar a sus nadadores (Michael Phelps, Mireia Belmonte…) batiéndose 23 de las 25 marcas registradas (según la FINA).

El problema ingenieril de un nadador y el de un avión es básicamente el mismo. Tienes una forma a través de un fluido que debe atravesarlo lo más rápido posible. Por tanto, estamos aplicando conceptos de resistencia aerodinámica, propios de la aeronáutica para diseñar “bañadores”. Este ejemplo,  define claramente el punto por el que atraviesa los programas de simulación hoy en día, donde se usa la alta tecnología para resolver lo que podríamos definir como  problemas de andar por casa.

De acuerdo con Lesa Roe, director del centro de investigación de la NASA en Langley Research Center «el modelado y la simulación son más viejos que la NASA». Desde las primeras calculadoras humanas, tal como nos cuenta la película “Figuras ocultas (2016)”, hasta principios de siglo era inviable la utilización de esos recursos para problemas menores. Poco a poco  la simulación  fue quemando etapas, alrededor del año 2000, algunos expertos creían que la simulación en la ingeniería había alcanzado techo debido a la escasez  de ingenieros de alto nivel capaces de trabajar los modelos de cálculo,  a los equipos relativamente lentos de la época y a la sectorización de los problemas a tratar. Sin embargo, el desarrollo de los equipos y las simplificaciones integradas en los softwares han permitido que empresas sin los recursos que puedan tener la industria del motor o de la aeronáutica, accedan al campo de la simulación para predecir los fenómenos que gobiernan  la naturaleza de los problemas que se presentan en sus productos, buscando de esta forma la mejora continua. Así, la ingeniería de la simulación ve ahora infinitas oportunidades de crecimiento, basadas en esas nuevas necesidades y en los retos que estas plantean.

Y tal como dice el refrán, «La necesidad hace maestros», desde CARTIF se trabaja en dar el soporte necesario y ayudar a nuestros clientes en la mejora de sus productos. Me gustaría destacar la determinación del comportamiento estático de envases por simulación mediante el método de los elementos finitos.

En envases de paredes de pequeño espesor, el interés del comportamiento resistente se centra en los fenómenos  de inestabilidad elástico o abolladuras (régimen elástico no lineal).

A través de estas simulaciones podemos detectar puntos débiles y fallas de diseño antes de la fabricación, con el consiguiente ahorro de tiempo, material y dinero. Durante el análisis se tienen en cuenta parámetros como el material (PET, HDPS, aluminio…), grosor, contenido líquido, etc. que definen el envase y permiten predecir su rendimiento, dando lugar a curvas características de deformación bajo carga, cargas máximas de colapso, tensiones y deformaciones ante los casos de carga a los que puede verse sometido durante la fabricación, el llenado, el embalaje y el transporte, incluyendo cambios de temperatura, variaciones de presiones e impactos.

En otro sentido y apoyándonos en los diferentes programas de simulación y conscientes de que los datos son la nueva moneda del futuro, desde CARTIF se trabaja además en el campo de la monitorización estructural con el fin de predecir necesidades de mantenimiento o detectar desviaciones funcionales basadas en los comportamientos simulados sobre modelos digitales. Esta idea puede ser revisada en mi anterior post ‘Cuando las estructuras envejecen’.

La Guerra de las Eficiencias (Episodio IV) – Una nueva esperanza

La Guerra de las Eficiencias (Episodio IV) – Una nueva esperanza

¿Desagregación de consumos? ¿Por qué? Para no caer en el lado oscuro

Dentro del mundo de la gestión, el aforismo “lo que no se mide no se puede mejorar” es frecuentemente atribuido al filósofo austriaco del siglo XX Peter Drucker, considerado el mayor filósofo de la administración (también conocida como management) de la centuria.

Cualquiera con unos conocimientos mínimos de gestión de calidad habrá oído hablar del “Ciclo de Deming” o también llamado “Ciclo PDCA de Mejora Continua”. Así, la medición es imprescindible en la gestión, forma parte del proceso administrativo y es fundamental en la aplicación del ciclo PDCA de mejora continua.

Sin embargo, todos los físicos sabemos que el verdadero origen de dicha frase no está en la gestión empresarial sino en la termodinámica experimental. Fue el matemático y físico británico del siglo XIX William Thomson Kelvin (Lord Kelvin) quien la enunció de la siguiente forma: “Lo que no se define no se puede medir. Lo que no se mide, no se puede mejorar. Lo que no se mejora, se degrada siempre.” Por cierto, William Thomson Kelvin se convirtió en Lord Kelvin – y con ello, en el primer científico británico en ser admitido en la Cámara de los Lores–, como reconocimiento a su trabajo en termodinámica y electricidad. Fue enterrado en la Abadía de Westminster, al lado de Isaac Newton.

Una vez defendido el honor de la física frente al management, la idea de medir para mejorar sigue siendo una de las reglas básicas más importantes del green manufacturing.

Uno de los problemas encontrados en el proyecto REEMAIN al iniciar el proceso de mejora de la eficiencia energética de un proceso productivo, fue la agregación de consumos energéticos. Es decir, no se conoce de forma precisa el consumo energético individual de las principales máquinas o etapas del proceso productivo. Sólo se conoce el consumo energético total de la fábrica.

En el mejor de los casos, cuando se trate de grandes fábricas constructivamente organizadas en talleres interconectados, se dispondrá de los consumos energéticos totalizados por meses de los distintos talleres. Esto se debe a que la fábrica habrá instalado contadores de electricidad, gas e incluso energía térmica o aire comprimido en los puntos de conexión de dichos talleres a las redes generales de distribución energética de la fábrica. Sin embargo, este “esfuerzo” –inversión económica– en medidores de energía no tiene nada que ver con la preocupación por la eficiencia energética, sino con evitar discusiones en el reparto de gastos generales correspondientes a suministros energéticos y servicios auxiliares entre los distintos talleres o departamentos.

Los gastos generales han de ser siempre repartidos y, puesto que desde el punto de vista contable la fábrica (o empresa) es un sistema cerrado, los distintos departamentos o talleres intentarán que se use aquel criterio que les beneficia a ellos –obviamente a costa de perjudicar a los otros–. Por ejemplo, los costes de electricidad o gas natural son a veces distribuidos entre los distintos departamentos en función del número de trabajadores, los metros cúbicos del taller, las unidades producidas, las horas trabajadas, la potencia nominal de las instalaciones o incluso una mezcla ponderada de todos los parámetros anteriores. Como se puede imaginar, si los costes energéticos totales alcanzan cifras de magnitud de seis ceros, modificar las ponderaciones hacia un criterio u otro puede suponer cientos de miles de euros sumados o restados en los balances económicos correspondientes.

En cualquier caso, o bien dentro del taller o en la fábrica globalmente, el reto consiste en determinar (mediante la monitorización y registro temporal detallado) las contribuciones de las distintas líneas, máquinas o sistemas al consumo energético de la fábrica. ¿Y por qué es útil? Pues es útil por muchos motivos, que contaremos en la próxima entrada. Pero en términos generales y, parafraseando al maestro Yoda, podríamos decir (ahora que se cumplen 40 años de su estreno), que “la agregación de consumos es el camino hacia el lado oscuro (de la ineficiencia energética). La agregación lleva al desconocimiento, el desconocimiento lleva al descontrol, el descontrol lleva la imposibilidad de mejora”.

Continuará…