Es de sobra conocido el término ecodiseño, pero seguro que habéis oído hablar poco de ecofabricación, más aún cuando es un término que no está ampliamente reconocido en la literatura técnica ni académica. Sin embargo, es un concepto que se viene utilizando recientemente para describir prácticas de fabricación que incluyen de forma central aspectos medioambientales. Pues voy más allá, a ver cómo os cuento de qué va la fabricación «metalecoaditiva», término que me acabo de inventar para darle título a esto.
Hace 40 años, Charles Hull y su invención de la estereolitografía (SLA) dio paso a lo que ahora conocemos como impresión 3D – o fabricación aditiva. Yendo un paso más allá, aparece después el concepto de impresión 3D de metales, que surge de décadas de desarrollo y experimentación, aunque su ideación se podría atribuir a Carl Deckard, pionero en el Sinterizado Selectivo por Láser (SLS) hace unos 30 años en la Universidad de Texas. Lejos entonces de su aplicación industrial, su desarrollo fue de la mano de más avances en materiales novedosos y láseres de alta potencia en los años 2000. Aunque muchos ya han oído hablar de procesos para impresión 3D de metales, como la Fusión Selectiva por Láser (SLM) o la Fusión por Haz de Electrones (EBM), cabe destacar que la tecnología tardó 10 años más en llegar a producciones industriales a gran escala – y no sólo prototipos, como se venía haciendo en fase de desarrollo para el sector aeronáutico, automotriz o médico (que son los que tenían el dinero para tales «juguetes»).
En los últimos 15 años, los procesos de impresión 3D de piezas metálicas han seguido mejorando considerablemente (en precisión, resolución, velocidad, propiedades físicas, control de calidad…), en gran parte por la aparición de nuevos materiales y las características que éstos presentan. Por otro lado, se han creado metodologías para analizar la eficiencia de los propios procesos de fabricación, control paramétrico, automatización y robótica, que repercuten directamente en los costes, y por tanto posibilitan la expansión de la aplicación de impresión 3D de metales a otros sectores. Actualmente, estos procesos mejorados incluyen, por ejemplo, la Fusión por Lecho de Polvo (PBF), la Deposición Directa de Energía (DED) o la fabricación aditiva por Inyección de Metal (Binder Jetting).
Bueno, pues todo esto de la fabricación aditiva es como todo proceso tecnológico – la mejora es imparable: no se hacen aviones ahora como hace 120 años, ¿verdad? Hace 120 años ya se volaba (12 segundos y 36,5 metros), pero no sé si estaríamos de acuerdo en definir volar a lo que hicieron los hermanos Wright en 1903. Su objetivo era «simplemente» volar y salir vivos. No creo que pudiesen imaginar que su curiosidad científica se convertiría en un pilar clave de la economía global, ni que pensasen en aviones de 600 pasajeros, en certificaciones que rigen el sector o la existencia ubicua de espacios para despegar y aterrizar.
De la misma manera, seguramente Carl Deckard, más allá de su interés científico en ingeniería mecánica, no se planteaba cambiar el mundo con su invención. Sin embargo, igual que lo hizo el transporte aéreo, la fabricación de piezas metálicas de forma aditiva ha tenido, tiene y seguirá teniendo un impacto enorme a nivel global. Tenemos ahora nuevas reglas de juego y posibilidades de fabricación de diseños, imposibles hasta hace bien poco (diseños generativos), ya que sus costes económicos y medioambientales eran prohibitivos y rozaban la locura. Por ejemplo, quien no sepa cómo se fabrica una turbina de un avión (¡¡al menos de qué se parte o cuánto se tarda!!), no puede valorar la locura a la que me refiero… ¡y cada vez hay más aviones!
La conciencia ecológica (tan necesaria actualmente), el desafío que tenemos por delante y la transición hacia la sostenibilidad van a impulsar la economía circular en el uso de la fabricación aditiva ( o impresión 3D) metálica. ¿O podría ser la fabricación aditiva quien potencie la sostenibilidad medioambiental? ¿O tal vez se pueda crear un «bucle virtuoso» en las que los dos ámbitos se retroalimenten, por medio de nuevos conceptos como el que yo acuño aquí como fabricación metalecoaditiva?
La cosa es que todo evoluciona y nuevos retos entran en contienda; ya no va a valer sólo con diseñar trenes de aterrizaje que cumplan su misión: aparte de que no muera nadie, deben ser competitivos. Debemos ( y se nos va a exigir) saber que han sido creados de la forma más sostenible posible y bajo criterios de circularidad. ¿Cómo? Bueno, mirando al futuro, imaginemos que las condiciones de fabricación de una pieza de responsabilidad estructural pudieran combinar varios procesos de fabricación, y no sólo uno (maquinado) u otro (aditivado). Imaginemos también que fuéramos capaces de hacer piezas que, aunque por las condiciones del proceso (más veloces) tuvieran acabados inadecuados, éstos se pudieran corregir en tratamientos posteriores con técnicas que impliquen un menor esfuerzo. O incluso, que, ante una falla de pieza, pudiésemos reacondicionarla directamente: es decir, sobre la misma pieza imprimir lo que le falta, y que así la misma empresa usuario de la pieza pueda repararla en sus propias instalaciones. ¡No tendríamos una pieza que desechar! Ojo, ¡ni la necesidad de hacer una pieza nueva! No incurriríamos en inventarios de piezas, almacenamiento o transporte de esos repuestos, tan indeseable…
Pues bien, la combinación de la fabricación aditiva y la circularidad tiene un punto de sinergia que va a ser investigado e implementado durante los próximos 4 años a través de un proyecto europeo llamado DIAMETER, en el que participan más de 20 entidades de alto prestigio, de 4 continentes distintos. CARTIF es sólo una de estas entidades privilegiadas que ya han empezado a trabajar en construir un puente entre la fabricación aditiva de piezas metálicas y la economía circular.
Este puente será un marco donde analizar una serie de piezas metálicas usadas en casos críticos de varios sectores productivos, y fabricadas por diferentes procesos de fabricación aditiva. En DIAMETER, se contrastarán resultados físico-experimentales de los procesos de fabricación frente a simulaciones computacionales de las piezas en esos procesos para, con ello, prever las respuestas de las piezas frente a diferentes modificaciones del proceso. Estas respuestas (de tensiones/deformaciones, entre otros) aportarán un conocimiento mecánico de la pieza y del proceso en cuanto a fallos, desperdicios, calidad, o necesidad de integrar posprocesado (fabricación híbrida combinando aditiva y sustractiva). En definitiva, una combinatoria de posibles escenarios y resultados que deben ser transformados en resultados cuantificables bajo un enfoque de sostenibilidad para alimentar un sistema basado en inteligencia artificial que proporcione decisiones automatizadas y óptimas sobre procedimientos y configuraciones en la fabricación aditiva de las piezas metálicas.
«Alimentar un sistema basado en inteligencia artificial que proporcione decisiones automatizadas y óptimas»
«Un momento, ¡esto es una locura!»
A ver, sí, una locura casi tan grande como tallar (maquinar) un bloque de 3m3 de acero inoxidable en un torno de 6 ejes durante una semana para obtener una turbina de avión o una turbina hidráulica. O, dicho de otra manera, 500k€ durante una semana, con la posibilidad de que, si hay errores, haya que tirar la turbina y volver a empezar de cero.
Pero vamos a ir paso a paso. Lo primero va a ser caracterizar esos procesos de fabricación, ver cómo las piezas a fabricar se van generando y si estas sufren desvíos, imprecisiones, o analizar la propia calidad de la superficie. Para ello se va a emplear tecnología de visión artificial de verificación geométrica de piezas durante el proceso de fabricación, que son temáticas en las que CARTIF lleva trabajando 30 años…¡y lo que nos queda!
Co-autor
Iñaki Fernández Pérez. Doctor en Inteligencia Artificial. Investigador en el área de Salud y Bienestar de CARTIF. Actualmente colabora en varios proyectos que buscan aplicar tecnologías punteras (IA, IoT, Edge Computing..)
«Divide et impera», consigna popular romana atribuida posteriormente a la figura del emperador romano Julio César. «Divide y domina» o más conocida como «Divide y vencerás», fue el fundamento estratégico sobre el cual se forjó el imperio romano (27 aC-476 dC). Casi nada. Acorde a la relevancia política y bélica de esta consigna, en el ámbito matemático, dio nombre a una de las ocho estrategias heurísticas clásicas de resolución de problemas junto a la codificación, organización, experimentación, analogía, introducción de elementos auxiliares, búsqueda de regularidades y suposición del problema resuelto.
La estrategia resolutiva en cuestión basada en fraccionar un problema en un conjunto de sub-problemas más pequeños, resolver estos sub-problemas, y combinar las soluciones. Es una metodología muy empleada en diversos campos científicos y que bajo diferentes nombres, teoremas, o métodos, como el método de integración por partes (calculo integral) o principio de los trabajos virtuales (resistencia de materiales), ha promovido la resolución de problemas complejos convirtiéndolos en múltiples problemas «fácilmente» resolubles.
Si por algo se caracteriza el mundo de la ingeniería es precisamente por este afán de transformar los problemas. Todos hemos oído alguna vez el chiste de cómo calcula un ingeniero el volumen de una vaca y cómo, frente a las funciones de aproximación a una superficie y su posterior integración que realizaría un matemático o la actuación de un físico empleando el principio de Arquímedes y metiendo la vaca en una piscina, el ingeniero daría su solución aproximando la vaca a una esfera.
En el campo de la ingeniería estructural, rama encargada del diseño y cálculo de elementos y sistemas estructurales para asegurar de antemano una respuesta estructural óptima (segura, resistente y funcional) aplica la mecánica de medios continuos, un modelo de cálculo super bonito en el mundo «académico» cuya aplicación en la vida real es muy «chunga». Por eso recurrimos al método de los elementos finitos, otro ensalzamiento ingenieril del «divide y vencerás», en el que la estrategia es convertir el medio continuo en un número finito de partes, «elementos», cuyo comportamiento se especifica mediante un número finito de parámetros en ciertos puntos característicos o «nodos». Comúnmente se llama a esto «simulación», aunque como mínimo debería ponerse el apellido de numérica.
Profesionalmente, trabajo en este campo para diseñar «cosas» de forma óptima. Pero cuando esas cosas son conjuntos de elementos configurables o catálogos de productos, y se quieren abarcar todas las opciones para ofrecer la mejor, podríamos hablar de la necesidad de desarrollo de aplicaciones de dimensionamiento o configuradores de cálculo de sistemas y productos. Pues bien, tras años trabajando en estos desarrollos para diferentes sectores, puedo decir, sin miedo, que desmembrar un proyecto entre los diferentes equipos de conocimiento sería el iceberg que nos deje congelados. Parece lógico pensar, que si estamos hablando del desarrollo de alguna aplicación de validación resistente de un producto configurable necesitemos quien conozca a la perfección dicho producto, con todas sus variantes y sus posibilidades, su terminología, su sentido, su coste y hasta su alma, si se me permite decir. Del mismo modo que se necesita, a ese nivel de conocimiento, alguien capaz de calcular y validar el producto en términos resistentes y funcionales y de quien sepa transformar, transcribir o visualizar adecuadamente esa validación numérica en alguna plataforma de fácil manejo. PUES NO, preparen los botes salvavidas. Una dosis de realidad difícil de digerir para un ingeniero y acérrimo defensor de los proyectos multidisciplinares como yo y de parcelar los problemas.
La experiencia profesional con sangre, sudor y lágrimas incluidas, ha mejorado nuestra concepción de la estrategia evitando estrategias sectoriales que dirigen el objetivo global, y en definitiva el producto, a un segundo plano. Y para entenderlo, nada más nuestro que esa conocida expresión de «zapatero a tus zapatos». ¿Sabéis de lo que os estoy hablando? ¿Aún no?
Esa compartimentación del proyecto es contraproducente frente a la detección temprana de errores, inevitables por otro lado y derivados de la falta de concepción y entendimiento entre profesionales (por ejemplo, los arquitectos y los ingenieros no hablan ni siquiera en la misma escala). Además relega las funciones del «experto» del producto a marcar las normas, reglas o rangos de consideración, lo cual parece bastante ilógico pues se aparta al experto del transcurrir del proyecto y claro, ¿Cómo detectamos los fallos?, y lo más importante ¿cuándo? en la evaluación final…o sea que seguimos, cual músicos del Titanic, hasta el final y luego ya veremos cómo nos trata el océanos de correcciones y versiones finales en la que nos veremos sumergidos por fallos e imprevistos que de unos derivan en la carga de trabajo de otros. Ahora sí sabemos de lo que estamos hablando, ¿verdad? Y esto sin entrar en las responsabilidades que también se han visto diluidas. Es culpa de…,Si me hubiese indicado que…
Es imposible ofrecer un servicio en este sentido, dirigido al desarrollo de una aplicación de verificación de cumplimiento de un producto configurable, si este no es concebido como un proyecto exclusivo de ingeniería de cálculo. O el todo incluido o «nada», y me refiero al verbo. Ahora bien, para obtener esta exclusividad, como ingenieros debemos comprender bien el producto, entender aspectos en los que quizá ni el cliente, con 30 años en el negocio, había tenido tiempo de pensar, debemos hacernos expertos y pensar. Es la única forma de afrontar con éxito un servicio de estas características. Aunque no quería usar el término holístico, por su uso indiscriminado, en este cometido encaja como un guante. Esa concepción del «todo», todo se debe considerar en todas sus partes, evitando interpretaciones, vorágines casuísticas, lecciones de bestialismo computacional o transcripciones y visualizaciones erróneas (el cliente nunca sabe lo que quiere hasta que lo tiene), pero sobre todo, el objetivo debe ser actuar en tiempo frente a posibles fallos.
¿Y dónde vamos a encontrar a alguien que quiera aprender, que plantee preguntas, que quiera mejorar el producto y el rendimiento de otras empresas, que tenga la capacidad para hacerlo, bien a nivel computacional o mediante técnicas experimentales o científicas y que encima pueda implementarlo en alguna plataforma para que su usabilidad, mejore por ejemplo, la competitividad de los diferentes departamentos técnicos y de ventas de otras empresas? ¿Te imaginas dar a un botón para obtener el trabajo semanal de un técnico?
Las herramientas CAE están a día de hoy muy extendidas y el análisis por elementos finitos está teniendo mayor impacto de lo que había tenido hasta el momento. Las capacidades que presenta la ingeniería asistida por ordenador (CAE) se venían utilizando en campos muy concretos donde los recursos eran prácticamente ilimitados. Por ejemplo, en el ámbito aeronáutico, los diseños de los aviones buscan mejorar la eficiencia de vuelo y dentro de la fórmula 1, el objetivo está puesto en aumentar la fuerza de pegado del coche contra el suelo.
Actualmente no existe ningún campo de la ciencia o de la ingeniería que no se haya visto impulsado y en algunos casos transformado por los programas de simulación o simulación computacional. En la industria actual, independientemente del sector, se está comenzando a alcanzar el potencial del cálculo numérico para simular la realidad física que se presenta en cualquier tipo de problema o desarrollo industrial.
La industria deportiva hace gala de este hecho, por ejemplo, SPEEDO fabrico trajes de baño, que mediante un efecto de compresión, producían ligeros cambios en la forma del cuerpo del nadador logrando reducir la fuerza de arrastre más de un 15 por ciento. Estos trabajos empezaron a dar sus frutos en los JJ.OO. de Pekín donde el 94% de las medallas fueron a parar a sus nadadores (Michael Phelps, Mireia Belmonte…) batiéndose 23 de las 25 marcas registradas (según la FINA).
El problema ingenieril de un nadador y el de un avión es básicamente el mismo. Tienes una forma a través de un fluido que debe atravesarlo lo más rápido posible. Por tanto, estamos aplicando conceptos de resistencia aerodinámica, propios de la aeronáutica para diseñar “bañadores”. Este ejemplo, define claramente el punto por el que atraviesa los programas de simulación hoy en día, donde se usa la alta tecnología para resolver lo que podríamos definir como problemas de andar por casa.
De acuerdo con Lesa Roe, director del centro de investigación de la NASA en Langley Research Center «el modelado y la simulación son más viejos que la NASA». Desde las primeras calculadoras humanas, tal como nos cuenta la película “Figuras ocultas (2016)”, hasta principios de siglo era inviable la utilización de esos recursos para problemas menores. Poco a poco la simulación fue quemando etapas, alrededor del año 2000, algunos expertos creían que la simulación en la ingeniería había alcanzado techo debido a la escasez de ingenieros de alto nivel capaces de trabajar los modelos de cálculo, a los equipos relativamente lentos de la época y a la sectorización de los problemas a tratar. Sin embargo, el desarrollo de los equipos y las simplificaciones integradas en los softwares han permitido que empresas sin los recursos que puedan tener la industria del motor o de la aeronáutica, accedan al campo de la simulación para predecir los fenómenos que gobiernan la naturaleza de los problemas que se presentan en sus productos, buscando de esta forma la mejora continua. Así, la ingeniería de la simulación ve ahora infinitas oportunidades de crecimiento, basadas en esas nuevas necesidades y en los retos que estas plantean.
Y tal como dice el refrán, «La necesidad hace maestros», desde CARTIFse trabaja en dar el soporte necesario y ayudar a nuestros clientes en la mejora de sus productos. Me gustaría destacar la determinación del comportamiento estático de envases por simulación mediante el método de los elementos finitos.
En envases de paredes de pequeño espesor, el interés del comportamiento resistente se centra en los fenómenos de inestabilidad elástico o abolladuras (régimen elástico no lineal).
A través de estas simulaciones podemos detectar puntos débiles y fallas de diseño antes de la fabricación, con el consiguiente ahorro de tiempo, material y dinero. Durante el análisis se tienen en cuenta parámetros como el material (PET, HDPS, aluminio…), grosor, contenido líquido, etc. que definen el envase y permiten predecir su rendimiento, dando lugar a curvas características de deformación bajo carga, cargas máximas de colapso, tensiones y deformaciones ante los casos de carga a los que puede verse sometido durante la fabricación, el llenado, el embalaje y el transporte, incluyendo cambios de temperatura, variaciones de presiones e impactos.
En otro sentido y apoyándonos en los diferentes programas de simulación y conscientes de que los datos son la nueva moneda del futuro, desde CARTIF se trabaja además en el campo de la monitorización estructural con el fin de predecir necesidades de mantenimiento o detectar desviaciones funcionales basadas en los comportamientos simulados sobre modelos digitales. Esta idea puede ser revisada en mi anterior post ‘Cuando las estructuras envejecen’.
¿Cómo reducir el esfuerzo económico que suponen las tareas de mantenimiento y conservación estructural implantando sistemas de monitorización?
Las estructuras no son eternas. Se proyectan para prestar un servicio durante un número de años determinado. Así, la vida útil del mástil de un aerogenerador es de, aproximadamente, 20 años mientras que en el caso de un puentedependerá de la tipología y del material utilizados. De acuerdo con Guy Grattesat, un puente metálico tendrá una vida útil de 40 años, 100 años para los de hormigón armado, entre 15 y 20 años los fabricados en madera y unos 200 años para los proyectados en mampostería. No obstante, sobrepasar la vida útil prevista no debe implicar necesariamente el desmantelamiento de la estructura. En general lo que se hace es un seguimiento más exhaustivo de la misma y aplicar medidas de conservación en caso necesario.
El parque estructural europeo está alcanzando la vida útil para la que fue diseñado y empieza a dar señales de fatiga. Según Eva Lantsoght, profesora de Ingeniería de la Universidad San Francisco de Quito, “los puentes europeos son viejos, pero reemplazarlos implica una gran inversión. Solo en Holanda existen alrededor de 3.000 puentes que podrían presentar problemas, pero sustituirlos cuesta alrededor de un millón de euros cada uno”. Por mencionar otro ejemplo, los primeros aerogeneradores (1984) cuya eclosión tecnológica llegó en 2002 (según la GWEC, Global Wind Statistics) tendrán grandes necesidades de mantenimiento y el crecimiento de estas necesidades, imagino, tendrá la misma curva exponencial que ha tenido el desarrollo de los aerogeneradores en el pasado.
Con estos antecedentes, quiero resaltar la importancia que adquiere conseguir reducir el esfuerzo económico que implican las tareas de mantenimiento y conservación estructural. Por ello, los sistemas de monitorización son la solución que se viene desarrollando en los últimos años. Lo más usual en este tipo de infraestructuras es colocar una red de acelerómetros con los que sea posible determinar el comportamiento vibratorio de la estructura. Esta identificación permite estimar sus características modales analizando así su integridad ante cambios estructurales futuros. La idea es conocer cómo se comporta la estructura cuando está bien para determinar cuándo no lo está, controlando la variación de unos pocos parámetros, los que caracterizan modalmente a la estructura (frecuencia, modo y amortiguamiento) y de forma remota a ser posible. El término “monitorización” encierra en su semántica que el sistema es automático en el sentido de que registra valores dinámicos de forma continua, pero sin ningún tipo de interpretación. La interpretación de los valores dotándoles de sentido y significado también debería ser de forma automática mediante la integración del correspondiente sistema de alarmas.
Para la obtención de estos parámetros se requiere una cierta comprensión en el campo de la dinámica además de experiencia en técnicas experimentales de identificación modal. Tanto las que se basan en conocer la señal de fuerza aplicada sobre la estructura (Análisis Modal Experimental “EMA”) como las usadas cuando no conocemos la carga a la que está sometida la estructura (Análisis Modal Operacional “OMA”).
El mantenimiento controlado por sistemas de monitorización, en lugar de por las rudimentarias inspecciones visuales basadas también en pruebas de carga, será un importante nicho de negocio para empresas que sean capaces de realizar este control estructural reduciendo al máximo los costes de los equipos a usar.
En este sentido, puedo mencionar el éxito de la monitorización low-cost de la Pasarela Peatonal Pedro Gómez Bosque (construida en Valladolid) que lleva controlada por el equipo de CARTIF más de tres años. En este tiempo, la estructura nos ha facilitado datos de cómo se comporta en función de su uso, en verano, en invierno, bajo fuertes rachas de viento, etc. Con el análisis de esta información sabemos qué entra dentro de lo normal para, en el futuro, marcar los límites y determinar anomalías.