Cómo reducir el uso de recursos, residuos y emisiones en tres pasos
Los anglosajones lo llaman Green Manufacturing y en español podríamos llamarlo “fabricación limpia”. De entre sus posibles acepciones, en este post y sucesivos nos centraremos solo en aquella que se refiere a la ecologización de la fabricación, es decir, reducir el uso de los recursos naturales, potenciar el reciclado y reutilización de residuos y recortar las emisiones de gases de efecto invernadero para lograr que disminuyan la contaminación y los residuos generados.
Cada vez más empresas emprenden iniciativas e inversiones para reducir la utilización de los recursos naturales y energéticos, la generación de residuos y la emisión de contaminantes. Estas acciones, unidas al aumento del reciclado y la reutilización de lo que antes se consideraba un recurso sin valor, derivan en la obtención de beneficios económicos y de relaciones públicas.
Existen iniciativas de este tipo individuales o colectivas, con financiación privada, pública o mixta. Una de ellas, en la que personalmente estoy involucrado, es el proyecto demostrativo REEMAIN, financiado por el VII Programa Marco de la UE, en el que promovemos la innovación en el uso de recursos (energía y materiales) en la fabricación.
Entre otras acciones, este proyecto incluye la optimización del trío Producción-Producto-Proceso, la recuperación de posibles energías desperdiciadas en el proceso productivo y la integración de sistemas de energía renovables. En el proyecto contamos con tres fábricas demostradoras: una fábrica de galletas, una fundición de hierro y una fábrica textil de tela vaquera.
La “receta” que utilizamos se basa en tres pasos consecutivos: primero Reducir, después Recuperar y por último Remplazar.
Existe incluso un planteamiento mixto mediante centrales de co o tri-generación a partir de biomasa (con o sin refuerzo de paneles solares) donde una central anexa a la fábrica produce una parte o la totalidad de la electricidad, agua caliente (o vapor) e incluso el agua fría que la fábrica requiere para su funcionamiento. Las propuestas de esta etapa presentan un gran impacto sobre los sistemas productivos existentes, ya que suponen la instalación de grandes infraestructuras anexas; además, su interconexión con los sistemas productivos existentes es compleja. En algunos casos, su introducción obligará a realizar cambios en la organización de la producción.
En la próxima entrega hablaremos de las ventajas y de la carrera de obstáculos que tendrá que superar una fábrica que decida volverse “verde”, o al menos, intentarlo.
En los últimos años, con el abaratamiento de nuevas técnicas instrumentales y el desarrollo de los correspondientes algoritmos computacionales, están apareciendo multitud de trabajos basados en escaneado 3D y fotogrametría tendentes a obtener especificaciones técnicas de sistemas mecánicos o estructurales, las cuales no están disponibles por distintas razones. Aunque en el proceso ingenieril directo lo normal es disponer de los informes técnicos y de los planos del producto previamente a su construcción, la realidad es que las edificaciones antiguas no están documentadas o, si lo están, es bastante habitual que la ejecución de las mismas no se corresponda con lo proyectado. Y aunque así fuera, el paso del tiempo puede haber provocado diferencias en el comportamiento de los materiales por fatiga mecánica o agresiones químicas o haber sufrido daños localizados, asentamientos de los apoyos u otras patologías estructurales comunes.
Con frecuencia, los datos obtenidos se centran en dimensiones geométricas y características superficiales como rugosidad y color. Una de las aplicaciones más claras es la reconstrucción tridimensional de construcciones arquitectónicas, bien de edificación para posibles rehabilitaciones o elaboración de planos informados (BIM) o con fines de archivo del patrimonio histórico o industrial.
Aun siendo de gran utilidad los datos geométricos adquiridos, en ingeniería estructural no son suficientes y es necesario añadir información sobre las características de los distintos materiales de construcción, las uniones entre los mismos y su posible interacción con los soportes y el terreno.
Afortunadamente, también se están haciendo más accesibles tecnologías que permiten extraer cierta información adicional. En esta entrada se verá cómo mediante sencillos registros de aceleración y algoritmos de identificación y de actualizado computacional, se puede completar la información geométrica y disponer de las especificaciones técnicas necesarias que permitan conocer el comportamiento dinámico de la estructura bajo estudio. Estos procedimientos no requieren ensayos destructivos y, en el supuesto de que estos fueran viables, dichos ensayos no proporcionarían la información buscada a pesar de su mayor coste económico.
En primer lugar, comentar que la captura geométrica realizada, con independencia de su precisión dimensional, hace referencia a un determinado estado de carga sobre la estructura (al menos el debido a las acciones gravitatorias) y corresponde a una determinada temperatura ambiente. Ambas condiciones afectan significativamente en estructuras esbeltas como puentes o torres de tendido eléctrico. Además, en general, estas construcciones experimentan inevitables oscilaciones debidas a acciones ambientales que pueden también afectar a la precisión dimensional registrada.
En segundo lugar es interesante tener en cuenta que en ingeniería estructural y en construcción de obras civiles es usual recurrir a componentes comerciales (perfiles, encofrados, tuberías, farolas) de dimensiones discretas conocidas. Esto habilita la posibilidad de proceder a escalados adaptativos que permiten mejorar la precisión dimensional o su refinamiento local. De esta manera no serían necesarios registros dimensionales exhaustivos y se podría recurrir a sistemas de bajo coste tanto instrumental (cámaras) como de equipos informáticos necesarios para su postprocesado.
Teniendo en cuenta lo anterior y presuponiendo ciertas habilidades para el modelado computacional en construcciones de este tipo, es posible disponer de un modelo preliminar de la estructura. Sobre este modelo, el método de los elementos finitos permite estimar la deformación incremental debida a ciertas cargas o acciones térmicas y mediante correlaciones adecuadas comenzar a estimar ciertos parámetros internos (densidad efectiva, rigidez, daño, etc.). No obstante la metodología cobra especial importancia cuando se combina la información anterior con datos modales. Para ello lo primero es disponer de los modos propios identificados experimentalmente (mediante análisis modal operacional, post-procesando los registros de aceleración ante cargas ambientales) y posteriormente seleccionar ciertos parámetros del modelo computacional. Ahora se trata de ajustar el valor de dichos parámetros (mediante rutinas de optimización y en función de la sensibilidad de cada parámetro y su rango de valores admisibles) para que casen los modos experimentales con los calculados computacionalmente. En este proceso se deben tener en cuenta no solo las formas modales más representativas sino también sus frecuencias y amortiguamientos modales.
Una vez determinados los valores de dichos parámetros se consigue disponer de un modelo a partir del cual poder no solo generar la correspondiente documentación técnica de la estructura real sino poder estimar su vulnerabilidad ante cargas accidentales, evaluar la vida útil o conocer la efectividad de diversas medidas de conservación, entre otras aplicaciones, entrando en lo que se conoce como re-ingeniería estructural, de cuyas ventajas se podrá hablar próximamente.
El título quizá sugiere un escenario clásico de película de terror: unas personas, normalmente un grupo de jóvenes, entran en una casa deshabitada que parece tener vida propia, y que les causa problemas que, dependiendo del guion, pueden terminar bastante mal para ellos.
En el mundo existen esas otras casas que, sin las oscuras intenciones de sus homónimas cinematográficas, se comunican con las personas que las ocupan habitualmente. Estamos hablando de viviendas, centros de trabajo, comercios y lugares de ocio donde los edificios interaccionan con los usuarios, a veces de forma directa, a veces de forma sutil, sin que las personas sean conscientes de ello.
Tradicionalmente, los edificios se comportaban como elementos pasivos, es decir, poseedores de unas características completamente dependientes tanto de los usuarios como de los equipos que se encontraban integrados en los mismos (calefacción y aire acondicionado, corriente eléctrica, fontanería e instalaciones de agua, y en tiempos más recientes telecomunicaciones). Los edificios tradicionales eran concebidos y existían con unas finalidades predeterminadas. Las personas que hacían uso del edificio disfrutaban (y sufrían) de las condiciones de funcionamiento del edificio, y solo ciertos parámetros podían ser variados, pero siempre con la intervención directa del usuario o del administrador/mantenimiento del edificio.
No siempre está claro si el avance de las tecnologías o las ideas para implementarlas van una delante de la otra temporalmente, pero lo cierto es que la mejora en las características de los equipos instalados en los edificios y el hecho de que sus precios hayan evolucionado hacia valores razonables para el usuario medio, han conseguido que se pueda llevar a cabo, a nivel global, el paso de la vivienda tradicional pasiva a una vivienda activa. Pero ¿qué se puede considerar como una vivienda activa?
Antes que nada, hay que aclarar que, a nivel energético, existen los conceptos de “vivienda activa” y “vivienda pasiva” (PassivHaus). En el primer caso se refiere a la vivienda tradicional, y en el segundo a la vivienda que, sin apoyo de dispositivos que consumen energía, es capaz de mantener unas condiciones climáticas y de confort adecuadas para el usuario. Nosotros nos referimos con vivienda activa a nivel energético hablando del campo interactivo, cuando la vivienda “habla” con el usuario:recibe las solicitudes y necesidades de las personas que usan el edificio, y realiza una gestión inteligente de sus propios recursos y mecanismos (calefacción, luces, etcétera) para satisfacer esas solicitudes y necesidades, generando un nivel de confort apropiado para cada caso.
Actualmente, existen soluciones para estas viviendas activas (o como hemos visto, mejor viviendas interactivas) que combinan tres elementos fundamentales en el funcionamiento de este tipo de viviendas: sensores e interfaces, redes de control, e instalaciones. Los primeros son los ojos y oídos del sistema, y captan los datos actuales del entorno y las necesidades del usuario. Luego las redes unen, como el sistema circulatorio del cuerpo humano, todos los elementos del sistema, incluyendo las comunicaciones entre ellos. Y finalmente, las propias instalaciones, que realizan las acciones necesarias para llevarlos a cabo.
Los sensores han evolucionado en precio y prestaciones hasta poder ser utilizados en las viviendas actuales, y su futuro pasa por más mejoras y reducciones en los costes, además de facilitar su instalación y mantenimiento.
En las redes, existen diversos fabricantes y consorcios con sus propios protocolos, y la tendencia en estos casos es a que sobrevivan únicamente unos pocos, con lo que el proceso de generar la red de control del edificio se simplifica, así como sus costes y mantenimiento.
Sobre las instalaciones, éstas se van adaptando poco a poco a las necesidades actuales, ofreciendo nuevas posibilidades de confort, y mejorando la eficiencia energética de los edificios.
Se podría hablar además de un concepto relativamente nuevo llamado BEMS (Building Energy Management System), en el que CARTIF trabaja actualmente, y que englobaría parte de todo lo anterior. Este sistema gestiona estos “edificios activos” como un todo, incluyendo conceptos como el internet de las cosas (IoT), las redes neuronales y la lógica difusa para predicción de modelos y toma de decisiones.
Como conclusión, se puede decir que el paradigma de la vivienda ha evolucionado hasta convertirla en un elemento vivo que se comunica con nosotros, y que nos facilita, de forma inteligente, el confort y gestión energética que necesitamos.
La celiaquía es una enfermedad desarrollada por personas que son intolerantes al gluten y se caracteriza por una reacción inflamatoria, donde el sistema inmune ataca erróneamente el propio intestino como si se tratara de un agresor externo y origina lesiones en su mucosa afectando a la absorción de los alimentos y vitaminas. Esta enfermedad puede afectar a ambos sexos por igual y puede empezar en cualquier momento, desde la infancia (tan pronto como se introducen los granos de cereal en la dieta) a la edad adulta (incluso cuando los individuos han consumido granos de cereal toda su vida).
Los síntomas más frecuentes son pérdida de peso, fatiga, náuseas, vómitos, diarrea, retraso en el crecimiento, anemia y dolor abdominal. Aunque, en ocasiones, el cuadro se complica porque hay individuos que no presentan ninguno de estos síntomas o éstos pueden ser tan atípicos que el diagnóstico se dificulta. Esta enfermedad se detecta mediante examen clínico, una analítica que mide los anticuerpos específicos (antitransglutaminasa e inmunoglobulina A) que se genera en el intestino delgado, y una biopsia intestinal que permite tener un diagnóstico fiable.
Pero, ¿qué es exactamente el gluten? El causante de esta molesta enfermedad es un conjunto de proteínas contenidas en cereales como el trigo, cebada, centeno y avena, y los productos derivados de ellos (harina blanca, trigo candeal, harina de Graham, Triticum, trigo kamut, espelta, germen de trigo, salvado de trigo, etc). Según Molina-Rosell, sirve para dar elasticidad a las masas lo que permite que los productos tengan volumen y una consistencia elástica y esponjosa. Hasta aquí, la parte que casi todos conocemos. Pero, lo que no todo el mundo sabe, es que también se usa como aditivo para dar viscosidad, espesor o volumen a una gran cantidad de alimentos como embutidos (chopped, mortadela, chorizo, morcilla), salchichas, patés, quesos, conservas de carne y pescado, salsas, sucedáneos de café, chocolate y cacao, frutos secos tostados o fritos con harina y sal, caramelos, golosinas y algunos helados. En resumen: un celiaco lo tiene realmente difícil para poder tomar una dieta variada sin riesgos.
Afortunadamente, hay solución para no incluir el gluten en muchos alimentos. En el caso de los cereales, basta con sustituir trigo, cebada, centeno y avena por maíz, arroz, mijo, quinoa, etc. Con esto, los celiacos podrían consumir con seguridad panes, harinas, pastas y galletas. El problema aparece cuando comprobamos que el precio de estos productosgluten free puede ser ¡hasta un 448% superior al de los alimentos con gluten! Un ejemplo muy simple, según el Informe de Precios de la Federación de Asociaciones de Celiacos en España: el pan normal cuesta 2,11 €/kg. El pan sin gluten 9,48 €/kg,
La siguiente pregunta es ¿por qué? La respuesta es que el proceso de elaboración de los alimentos sin gluten se complica considerablemente. Sin el “pegamento” natural que produce el gluten, las masas quedan líquidas y no pueden ser horneadas. Hay que usar otros productos que ayuden a simular las características provistas por el gluten. Los elegidos son los hidrocoloides (goma de garrofín, goma guar, goma xantana, agar, pectinas y β-glucanos), emulgentes, enzimas o proteínas, almidón, combinados con grasas y derivados lácteos para conferir propiedades viscoelásticas.
Pero, además, en el proceso de elaboración de los productos sin gluten hay que utilizar equipos y utensilios exclusivos o que se hayan limpiado adecuadamente. No se pueden usar aceites ni freidoras donde anteriormente se hayan frito alimentos con gluten, como tampoco se pueden usar bandejas que anteriormente hayan contenido productos con gluten. Según la Guía para elaborar menús sin gluten, en todo el proceso de producción se debe evitar la contaminación cruzada con productos con gluten porque, para que un alimento sea considerado sin gluten, debe cumplir con la legislación vigente (Reglamento 41/2009) y contener menos de 20 mg de gluten por kilogramo de producto.
Todo un reto para la I+D alimentaria, que trabaja ya en nuevos procesos y sistemas que puedan simplificar la producción y conseguir un considerable descenso del precio de los alimentos libres de gluten.
Del 30 de noviembre al 11 de diciembre se ha celebrado en París la COP21, la vigesimoprimera conferencia sobre el cambio climático. Uno de sus objetivos era llegar a acuerdos entre los países participantes, que permitieran limitar el calentamiento global a un nivel por debajo de los 2 ºC.
Cuando nos planteamos la contribución del hombre al cambio climático, y en concreto en las emisiones de gases efecto invernadero, pensamos en las grandes empresas eléctricas, la producción de energía o en las emisiones producidas por el transporte, pero nuestra dieta y el modo en que consumimos nuestros alimentos tienen un papel relevante en la contribución al cambio climático.
Los sistemas alimentarios a nivel mundial son responsables de hasta el 30% de todas las emisiones de gases efecto invernadero. Por otro lado, para el 2050 se prevé un crecimiento de la población que hará necesario un aumento de producción agrícola y que supondrá por tanto, una mayor presión sobre los recursos naturales. Debemos encontrar la manera de alimentarnos de un modo más sostenible, buscando dietas más saludables y respetuosas con la naturaleza.
Recientemente Chatham House (Instituto Real de Asuntos Internacionales), organización no gubernamental sin ánimo de lucro que trabaja para construir un mundo sostenible, ha publicado un informe en el que concluye que es necesario un cambio de dieta para reducir el calentamiento global.
En este informe, se concluye que las dietas excesivamente carnívoras que mantenemos contribuyen directamente al calentamiento del planeta ya que el sector ganadero es responsable de un 15% de las emisiones de gases efecto invernadero. La carne es el alimento menos eficiente que existe para alimentar al planeta, por la cantidad de terreno cultivable que se dedica, la limitación del mismo a otros cultivos, y el enorme gasto de agua que supone por kilo de carne producida.
Reducir el consumo de carne podría reducir un 25% las emisiones de gases, y el cambio a dietas mediterráneas, basadas en pescado o vegetarianas supondría una reducción considerable en estas emisiones.
Según Gidon Eshel, la carne de ternera utiliza 28 veces más tierra y 11 veces más agua que la producción de pollo o cerdo. Y comparado con la producción de patatas o arroz, el impacto de la ternera por caloría, utiliza 160 veces más cantidad de tierra, además de las mayores emisiones de gases de efecto invernadero.
David Tilman, ecólogo de la Universidad de Minnesota, afirma que “las emisiones globales de gas de efecto invernadero se reducirían en una cantidad equivalente a las emisiones actuales de todos los coches, camiones, trenes, barcos y aviones. Además, este cambio en la dieta podría evitar la destrucción de bosques tropicales y sabanas de un tamaño equivalente a la mitad de los EE UU”.
Debemos ser conscientes de la repercusión que tienen nuestras acciones diarias en la emisión de gases, para tomar decisiones respetuosas y sostenibles con el medio ambiente. Las elecciones a la hora de realizar la cesta de la compra van a ser a partir de ahora esenciales, si queremos un planeta sostenible para todos, que alimente a toda la población (actualmente, en torno a 900 millones de personas pasan hambre a diario) y respete a todos los organismos vivos.
La mayor parte de los consumidores piensan que el mayor efecto contaminante de los alimentos son los envases y no el propio alimento. A partir de ahora, van a ser necesarias campañas internacionales de concienciación que informen a los consumidores de la influencia de la dieta sobre el medio ambiente.
Debemos caminar hacia sistemas alimentarios más sostenibles, con menor impacto sobre el medio ambiente, adquiriendo además patrones de dietas más saludables, que prevengan enfermedades como la diabetes tipo II, la obesidad, el cáncer y las enfermedades cardiovasculares asociadas a la dieta.
Recientemente los medios de comunicación han informado sobre la opinión apocalíptica de Stephen Hawking, Elon Musk y Bill Gates referente a una posible futura inteligencia artificial que podría llegar a sojuzgar a la Humanidad. Hasta que llegue ese día, y suponiendo que llegue, la tecnología nos ofrece una serie de métodos que remedan algunas capacidades intelectuales humanas y que pueden ser de gran utilidad en la práctica industrial como el aprendizaje no supervisado.
Una de ellas es la posibilidad de que una computadorapueda llegar a darse cuenta, por sí misma y sin conocimiento previo, de las diferentes situaciones o estados que pueden darse en un determinado proceso productivo. Imaginemos una computadora a la que de manera regular le llegan los valores medidos por una serie de sensores colocados en un proceso productivo. Gracias a técnicas de aprendizaje no supervisado, la computadora se dará cuenta de que los datos que le llegan se pueden agrupar en, por ejemplo, tres categorías y además podrá informarnos de cómo se caracteriza cada uno de esos tres grupos. Lo que la computadora no podrá hacer será dar nombre a cada uno de esos tres grupos, a no ser que le ayudemos de alguna manera. Esto es lo que haría una persona que analizara el resultado y se diera cuenta de que esos tres grupos son, por seguir con el ejemplo hipotético, los estados de arranque, marcha y parada. Pero aun con esta limitación, es posible utilizar el aprendizaje no supervisado para detectar averías sin haber registrado nunca ningún caso de ninguna de ellas. A continuación se expone una aplicación desarrollada por CARTIF del aprendizaje no supervisado: la detección de averías sin conocimiento previo de las mismas en un grupo hidroeléctrico.
Un grupo hidroeléctrico es el corazón de una central hidroeléctrica. Su función es transformar en energía eléctrica la energía contenida en un caudal de agua que cae. En cada grupo se miden y registran cientos de variables: tensiones e intensidades eléctricas, temperaturas de partes metálicas, de aceites, de agua de refrigeración, de aire, caudales de agua de refrigeración, de agua turbinada, etc. La situación de partida es un registro de todas esas señales, recogido durante un par de años y sin que conste ninguna avería. El problema consistía en diseñar un sistema que se dé cuenta de que se está produciendo una avería.
La solución propuesta se basa en un sistema de aprendizaje no supervisado que fue materializado mediante una red neuronal del tipo SOM (Self Organising Map). Esta red neuronal fue alimentada con los datos disponibles y ella sola fue capaz de identificar los posibles estados en los que se podía encontrar el grupo hidroeléctrico. La red neuronal da nombres arbitrarios a cada uno de los estados y debe ser un experto el que los etiquete correctamente. Sin embargo, no es necesario llevar a cabo ese etiquetado para detectar averías a pesar de no haber dispuesto de ningún ejemplo de ninguna de ellas durante el entrenamiento de la red neuronal. Como los datos utilizados para entrenar a la red neuronal no contenían averías y, a la vez, representaban todos los posibles estados de buen funcionamiento del grupo hidroeléctrico, cualquier conjunto de valores medido en él por los sensores y que no encajen en ninguno de los estados identificados corresponderá a una avería. Esta situación se detecta cuando la semejanza entre lo que miden los sensores y los prototipos de funcionamiento almacenados por la red neuronal es demasiado pequeña.
De esta manera nuestra red neuronal fue capaz de detectar una avería de sobrecalentamiento veinte minutos antes de que el sistema de supervisión del grupo hidroeléctrico diera la alarma de que algo iba mal, para lo cual no fue necesario instalar sensores adicionales.
Así que, mientras esperamos el día en el que quizá seamos dominados por las máquinas, quizá podamos aprovecharlas para aplicar algoritmos inteligentes que mejoren la supervisión de los procesos industriales sin requerir de grandes inversiones.