Del agua al plato y del enchufe al campo

Del agua al plato y del enchufe al campo

Este año hemos vivido situaciones tan diversas como un apagón generalizado que nos dejó varias horas sin luz y servicios básicos, una época de intensas lluvias que, si bien nos han permitido disponer de agua suficiente, también han provocado DANAs en ciertas regiones, y olas de calor que han llevado a incendios y sequías que afectan a bosques y tierras de cultivo.

Si todos estos eventos nos están suponiendo un gran quebradero de cabeza a nosotros, que vivimos en un país social y tecnológicamente desarrollado, con capacidad de prevención y actuación, es lógico suponer que en otros contextos con muchas menos posibilidades sus impactos serán exponencialmente más dañinos.

Un claro ejemplo de ello es el continente africano, el cual, a pesar de disponer de un vasto abanico de recursos naturales, se enfrenta constantemente a desafíos energéticos, alimenticios y de gestión de recursos. Para más inri, su actual y futuro desarrollo económico y demográfico no hacen sino ahondar más en dichos problemas, pues un mayor crecimiento social implica mayores demandas de electricidad, agua y comida.


Cuando sufrimos una sequía, nuestra mente suele centrarse en la falta de agua para beber o regar los cultivos. Sin embargo, una sequía también puede implicar menos producción hidroeléctrica y, por tanto, más presión sobre la red y los precios de la electricidad. Si se reducen las cosechas por falta de agua o calor extremo, la producción de alimentos se desploma y, consecuentemente, sus precios se disparan. Si un corte de electricidad impide bombear agua o conservar alimentos, el problema se agrava.

Esta red de interdependencias no es casualidad. Agua, energía y alimentación forman un sistema interconectado donde cualquier cambio en uno de los elementos puede desencadenar efectos en los demás. Por eso, desde hace años, se promueve el enfoque conocido como Metodología NEXO Agua-Energía-Alimentos (o WEF Nexus Methodology, por sus siglas en inglés).


El NEXO propone, al igual que múltiples teorías, que la mejor manera de abordar los retos relacionados con los recursos naturales es dejar atrás el pensamiento tradicional de silos (entender cada recurso como un ente individual, separado del resto) y hacerlo de manera integrada, entendiéndolos como sistemas complejos e interconectados en el que actuar sobre uno de ellos va a afectar a otro, ya sea de forma negativa o positiva. Este enfoque metodológico sistémico analiza cómo interactúan entre sí el agua, la energía y los alimentos, incluyendo a su vez la influencia de otros factores asociados como pueden ser la economía, la demografía, el cambio climático, etc.

En vez de pensar “¿cómo mejoramos la agricultura?” o “¿cómo garantizamos el suministro eléctrico?”, el enfoque NEXO nos lleva a preguntarnos cómo podemos garantizar el acceso sostenible a los tres recursos a la vez, sin perjudicar a ninguno y maximizando los beneficios conjuntos. Este enfoque permite anticipar conflictos, optimizar recursos y tomar decisiones más equilibradas en contextos de alta complejidad.


Pero claro, entender y predecir estas relaciones no es fácil. ¿Cómo se mide el impacto de una nueva presa en la producción agrícola? ¿Qué efecto tiene un aumento en el precio del combustible sobre el uso del agua en una región? ¿Cómo influye el crecimiento urbano en la seguridad alimentaria?

Para responder a estas preguntas se necesita estudiar cómo han funcionado dichas relaciones en el pasado, lo cual se consigue mediante datos históricos reales que sirven para alimentar modelos: herramientas que representen digitalmente las relaciones entre los distintos elementos del sistema. Estos modelos se nutren de valores históricos para simular diferentes escenarios futuros que permiten analizar los efectos de distintas decisiones políticas o estratégicas. No buscan ofrecer una única respuesta, sino crear un marco para evaluar alternativas y tomar decisiones informadas.


Bajo este enfoque nace el Proyecto ONEPlanET, del que CARTIF es socio y parte fundamental. Enmarcado en el programa de investigación Horizonte Europa, ONEPlanET comenzó en noviembre de 2022 y tendrá su evento final el próximo mes de octubre en Cabo Verde. Su principal objetivo es contribuir al desarrollo sostenible en África mediante la creación de un marco de modelado WEF Nexus común, el cual permita simular y evaluar diferentes alternativas políticas y de gestión de recursos. Para ello se han elegido como casos de estudio tres cuencas fluviales: la cuenca del Inkomati-Usuthu (Sudáfrica), la cuenca del río Bani (Mali-Costa de Marfil) y la del río Songwe (Tanzania-Malawi).

Las etapas iniciales consistieron en el estudio en profundidad de los casos de estudio, organizando workshops presenciales con actores locales (ONGs, políticos, universidades…). Posteriormente comenzaron los apartados más técnicos que involucraron la caracterización de los modelos específicos para cada piloto, la recogida de datos para alimentarlos, y el desarrollo de los propios modelos y de sus herramientas de visualización. Actualmente, la labor se centra en la presentación y accesibilidad de los resultados. Para ello, se han diseñado dos vías: una herramienta online orientada a usuarios técnicos y un juego de mesa para sensibilizar a públicos más amplios sobre los desafíos del nexo.

CARTIF ha participado en todas las etapas del proyecto: desde los workshops con organizaciones locales y la recopilación de datos, hasta la creación de los modelos y el desarrollo de las dos alternativas de visualización de los resultados.


Aunque ONEPlanET se desarrolla en África, el enfoque NEXO y las herramientas de modelado que promueve son replicables en cualquier parte del mundo y a cualquier escala, siempre que se disponga de los datos requeridos. En un contexto global cada vez más interdependiente, marcado por el cambio climático, la presión sobre los recursos y la creciente incertidumbre, entender cómo interactúan el agua, la energía y la alimentación es más urgente que nunca.

Porque los desafíos del futuro y del presente no vienen en compartimentos estancos. Y tampoco deberían hacerlo las soluciones.

El impacto del diseño de PCBs en la fiabilidad y el rendimiento electrónico

El impacto del diseño de PCBs en la fiabilidad y el rendimiento electrónico

En sectores tan diversos como la construcción, la logística, el patrimonio o la industria, el Internet de las Cosas (IoT) se ha convertido en un factor clave para impulsar la digitalización, mejorar la eficiencia y abrir nuevas oportunidades de innovación.

Cuando se aborda el diseño de un dispositivo electrónico, la atención suele centrarse en los componentes más importantes y destacados, como procesadores, sensores o módulos de comunicación. Sin embargo, la placa de circuito impreso (PCB, por sus siglas en inglés) constituye un elemento clave, pues su diseño condiciona de manera decisiva el correcto funcionamiento, la eficiencia y la fiabilidad del sistema en su conjunto.

La eficiencia energética es un pilar fundamental en el desarrollo de cualquier equipo. Una PCB bien diseñada permite una transmisión óptima de la energía que minimiza las pérdidas asociadas a una resistencia excesiva en las pistas de cobre y una mala organización de los componentes. Si las señales se ven obligadas a recorrer trayectos innecesariamente largos o por pistas demasiado estrechas, como resultado, aumenta la generación de calor, el consumo energético se incrementa y la vida útil del dispositivo se reduce.

La organización de los elementos en la PCB es otro aspecto crucial. En un mismo circuito coexisten funciones muy diversas, como la distribución de la alimentación eléctrica, la transmisión de señales digitales o la gestión de señales analógicas de alta sensibilidad. Para obtener un flujo de señal limpio y estable es imprescindible que estas funciones estén correctamente aisladas unas de otras, permitiendo al dispositivo un funcionamiento predecible y sin errores.



No menos determinante resulta la protección frente a interferencias electromagnéticas. En el entorno actual, marcado por la proliferación de comunicaciones inalámbricas, radiodifusión o maquinaría industrial, los dispositivos están expuestos a todo tipo de perturbaciones externas. Estas pueden generar ruido e interferencias en las señales, e incluso pueden provocar sobretensiones capaces de dañar los componentes y las pistas. Además, un mal diseño puede convertir a la PCB en una fuente de interferencias para sí misma como para los dispositivos circundantes. La aplicación de técnicas como los planos de tierra continuos, un apilamiento de capas compacto, rutas de señal reducidas y elementos auxiliares de filtrado, es esencial para mitigar todos estos riesgos.

Conscientes de la importancia de estos aspectos, en CARTIF aplicamos estos principios desde la fase de prototipado, anticipando su adaptación a procesos de industrialización futura. En el caso del proyecto BATERURGIA, permitió desarrollar un dispositivo de monitorización y avisos de alerta en el transporte y almacenamiento de baterías de vehículos eléctricos. De forma análoga, en el proyecto AUTOLOG, posibilitó la creación de un dispositivo integrado en vehículos industriales de guiado automático, orientado a la recopilación de datos logísticos con el fin de mejorar la trazabilidad de los procesos y optimizar las rutas de transporte.

La innovación es una maratón, no un sprint

La innovación es una maratón, no un sprint

Innovar no es solo tener una buena idea. Es pelear por ella cuando nadie más lo hace. Es darle forma cuando aún es intangible, es fallar cien veces hasta que, de repente, algo empieza a brillar.

Tendemos a pensar cuando hablamos de innovación, que gracias a la aparición de una idea genial hemos resuelto ese pequeño objetivo o problema o, en otras ocasiones, un gran problema que puede transformar el mundo. Lo cierto es que ninguna idea genial va muy lejos si no es por personas que, con gran esfuerzo y perseverancia, consiguen «materializar» esa idea genial.

Las innovaciones pueden surgir en cualquier rincón de una organización. A menudo, los niveles directivos tienen más facilidad para convertir una intuición en una línea de trabajo, pero también es común que una buena idea emerja desde el equipo técnico, producción, calidad o incluso administración. El verdadero reto es lograr que esa idea sobreviva a todos los obstáculos que implica convertirse en realidad. Y son muchos los obstáculos, desde los compañeros más cercanos, directivos que no apoyan la idea porque es más cómodo seguir en la zona de confort, hasta obtener financiación interna o externa. Es decir, el reto de innovar en muchas ocasiones es sobrevivir al esfuerzo de pasar de idea a realidad patente.


La historia está llena de ideas brillantes que murieron por falta de perseverancia. Pero también de proyectos que nacieron, no porque fueron evidentes o perfectos, sino porque alguien insistió más allá de lo razonable. En contadas ocasiones estas ideas y personas que las impulsan cambian el mundo que conocemos (innovaciones disruptivas1).

Para plasmar con hechos reales cómo las ideas geniales cambian el mundo, hablemos de una de las historias más impactantes sobre innovación, el premio Nobel de Física en 2014 concedido a Isamu Akasaki, Hiroshi Amano y Shuji Nakamura por la invención del LED AZUL. Ese pequeño invento que hace que a día de hoy tengamos finas pantallas LED, y gracias a eso me leas desde tu portátil, móvil o tablet (hay decenas de aplicaciones más gracias a este invento).

Ilustración del Premio Nobel de Física de 2014
Fuente: La Vanguardia. https://www.lavanguardia.com/ciencia/20141007/54416831597/nobel-fisica-2014-akasaki-amano-nakamura.html

Durante décadas, se lograron LEDs rojos, verdes y amarillos. Pero no azules. Y sin el azul, no se podía crear luz blanca eficiente, ni pantallas LED, ni proyectores de bajo consumo. Las principales empresas y centros de investigación del mundo lo intentaron y fracasaron. Era, simplemente, demasiado difícil.

El reto estaba en el material base. El nitruro de galio (GaN) era la mejor opción, pero era muy complejo de sintetizar y dopar. Los cristales eran defectuosos. La emisión de luz era inestable. Muchos lo intentaron y todos se rindieron.

Todos, excepto tres personas: Isamu Akasaki, Hiroshi Amano y Shuji Nakamura.

Akasaki y Amano, desde la Universidad de Nagoya, comenzaron a experimentar en los años 80.

Nakamura, un ingeniero en una pequeña empresa japonesa llamada Nichia Corporation, continuó sus investigaciones de forma casi autodidacta, contra la opinión de su entorno.

Durante años trabajaron con escasos recursos, sin visibilidad, sufriendo fracasos constantes y rechazo por parte de la comunidad científica. Pero persistieron.

La historia del LED azul

En 1993, Nakamura logró finalmente desarrollar el primer LED azul de alta eficiencia y uso comercial. Aquella luz azul no solo cambió la iluminación, sino que abrió paso a nuevas tecnologías sostenibles, más duraderas y eficientes. En 2014, los tres recibieron el Premio Nobel de Física por una innovación que tardó 30 años en ver la luz… literalmente.


Os animaría a releer la historia de esta invención más en detalle, porque realmente es un gran ejemplo de cómo la perseverancia y esfuerzo pueden literalmente cambiar el mundo para mejor. Además, podemos aprender valiosas lecciones de esta historia:

  • La mayoría de las empresas abandonan una idea si no hay resultados en 6 meses. El LED azul tardó más de una década en funcionar, y décadas en ser reconocido.
  • Entender la innovación como maratón, no como un sprint.
  • La verdadera innovación requiere más de esfuerzo que de genialidad.
  • Hay que sostener la innovación, incluso cuando no hay resultados.

Porque al final, innovar no es solo tener razón, es tener la determinación de demostrarla cuando aún nadie la ve.


Cuando el verde no viene de aplicar un ACV, sino solo del Pantone®

Cuando el verde no viene de aplicar un ACV, sino solo del Pantone®

Si a mi abuela le hubieran hablado de marketing verde, habría levantado una ceja diciendo: “Eso suena a que te quieren vender lo de siempre… pero con olor a pino”.

Y si le contara el enredo que tuvo Ursula von der Leyen al tener que reafirmar su apoyo a la Directiva de Alegaciones Verdes, tras días de confusión en su equipo, me diría: “Pues lo típico, Laura… dicen una cosa por la mañana, la contraria por la tarde, y al final no sabes si están hablando de sostenibilidad o de horóscopos”

Y no le faltaría razón.

En los últimos años, la sostenibilidad ambiental se ha convertido en una potente herramienta de marketing, aunque no siempre respaldada por acciones reales. Para poner freno a las prácticas de comunicación engañosas conocidas como “lavado verde” o greenwashing, la Unión Europea ha impulsado dos directivas clave: la Directiva 2024/825 de Empoderamiento de los Consumidores, ya aprobada y pendiente de transposición en España, y la Directiva de Alegaciones Verdes (Green Claims), que establece criterios específicos para evitar afirmaciones ambientales sin fundamento, cuya aplicación estaba prevista a partir del 27 de septiembre de 2026. Y tenemos que decir estaba porque, a pocos días de su aprobación final, la propuesta ha quedado en el aire por falta de consenso político y está ahora a la espera de aclaraciones y de un acuerdo entre los Estados miembros.

Esta directiva pretende poner orden en un ecosistema de etiquetas verdes que ha crecido sin control. Su objetivo: exigir que cualquier alegación ambiental (eso de “100% reciclado” o “carbon neutral”) esté verificada y respaldada con datos sólidos, como un Análisis de Ciclo de Vida (ACV). En su versión más ambiciosa, incluso obligaba al uso de metodologías armonizadas como la Huella Ambiental de Producto (PEF) o de Organización (OEF). Sin embargo, las negociaciones políticas han ido rebajando el tono, y ahora está en riesgo de quedar en papel mojado. Una lástima, porque la ciudadanía necesita protección e información frente al greenwashing y las empresas honestas, reconocimiento. No es una norma pensada para molestarlas. Al contrario.



Mientras tanto, la presión social y la vigilancia de organismos como la Organización Europea del Consumo ya están surtiendo efecto. Prueba de ello son los casos recientes de Coca-Cola y Adidas, que han tenido que recular en sus mensajes “verdes” tras investigaciones por publicidad engañosa.


Fuente: Publicación Linkedin de El Empaque Conversión.

En el caso de Coca-Cola, una denuncia colectiva presentada por organizaciones europeas de consumidores y medioambiente llevó a que la Comisión Europea interviniera. El gigante de las bebidas se comprometió a cambiar frases como “hecha con plástico 100% reciclado”, ya que solo aplicaban al cuerpo de la botella, no a la tapa ni a la etiqueta. Por su parte, Adidas tuvo que dejar de promocionar una línea de zapatillas como “más sostenibles” sin explicar con qué criterios lo eran ni aportar evidencia alguna. Ambas situaciones dejan claro que ya no basta con añadir una hoja verde o el símbolo del reciclaje.

Así que, mientras en algunos sitios se confunde sostenibilidad ambiental con decoración, en CARTIF aportamos una base técnica rigurosa para acompañar a las empresas en su transición hacia modelos medioambientalmente más sostenibles y transparentes.

Desde nuestro equipo de sostenibilidad y neutralidad climática, llevamos años colaborando con empresas comprometidas con la mejora continua, que desean fundamentar sus decisiones en datos verificables.

¿Y cómo lo hacemos? Pues ni con bolas de cristal ni con hojas verdes de parra, sino:

  • Aplicando Análisis de Ciclo de Vida (ACV): porque saber el impacto ambiental de un producto no es cuestión de intuición, sino de cálculos rigurosos según estándares ISO.
  • Calculando huellas ambientales: empezando por la huella de carbono (la más mediática de la familia) pero sin olvidarnos de las demás: de acidificación, uso del suelo… Para tomar decisiones que pesen lo justo (en impacto, no en excusas).
  • Fomentando ecoetiquetados y la comunicación ambiental: porque decir la verdad también se entrena.
  • Ayudando a incorporar estrategias de ecodiseño: porque si el impacto ambiental no se tiene en cuenta desde la fase de diseño, poco puede hacer una etiqueta. Aquí es donde la sostenibilidad se cuela en los planos, en los materiales, en los embalajes… y sí, también en las decisiones con más estilo (y menos residuos).

Combinando todas estas herramientas, nuestra misión es apoyar a las empresas en su camino hacia modelos no solo ambientalmente más sostenibles, sino también más honestos y coherentes. Las acompañamos a medir, mejorar y comunicar (siempre en este orden).Queremos que puedan contar su historia de sostenibilidad con una sonrisa. Que su storytelling tenga coherencia con su storydoing.

Y a Ursula le pedimos una cosa sencilla (pero urgente): que no deje fuera del juego a quienes están haciendo las cosas bien. A esas empresas que apuestan por medir, mejorar y comunicar con transparencia, y que luego tienen que competir con quien vende humo verde.

Porque sí, se puede comunicar sostenibilidad sin caer en el maquillaje verde. Solo hace falta rigor, compromiso y un poquito de sentido común. Como el que tenía mi abuela.

¿Y cómo salimos del apagón?

¿Y cómo salimos del apagón?

A estas alturas de la película, seguramente estamos ya cansados de escuchar todo tipo de ideas, algunas bastante pintorescas, sobre las causas del apagón eléctrico del 28 de abril. Lo que parece menos atractivo, o con menos tirón mediático, es hablar de las soluciones técnicas que hicieron posible volver a iluminar una península con más de 50 millones de personas. Precisamente ese es el propósito de los siguientes párrafos.

Aunque ya disponemos de un esquema oficial sobre las causas de este blackout en nuestro sistema eléctrico, hay una palabra que resuena en todo este conglomerado de despropósitos: frecuencia. En el contexto eléctrico, la frecuencia representa la velocidad con la que la corriente alterna cambia de polaridad (de positivo a negativo y viceversa), y debe mantenerse siempre constante, en el caso peninsular 50 Hz, ya que toda la infraestructura de red está diseñada para operar bajo esas condiciones inflexibles.

Esta frecuencia, sin embargo, ha sido objeto de debate en los medios, en ocasiones para cuestionar el uso de energías renovables y en otras para ensalzar el uso indiscriminado de combustibles fósiles. Pero hay una fuente renovable menos mediática, silenciosa pero esencial, que juega un papel clave en el control de la frecuencia: la hidráulica.

Al igual que ocurre con otras tecnologías como las centrales nucleares o las turbinas de gas, la energía hidráulica genera electricidad mediante la rotación sincronizada de elementos mecánicos, lo que le permite contribuir de forma directa a mantener la frecuencia en los 50 Hz requeridos. Por el contrario, tecnologías como la solar fotovoltaica o la eólica (aunque imprescindibles en la transición energética) no tienen esa capacidad de regulación directa y, además, pueden ser muy sensibles ante desviaciones de frecuencia por su electrónica asociada. Una pescadilla que se muerde la cola.

Pero lo que realmente hizo protagonista a la hidráulica tras el apagón fue su capacidad de black start o arranque en negro: es decir, poner en marcha una instalación eléctrica sin depender de la red. Solo unas pocas centrales en el sistema tienen esta capacidad, y en España la mayoría son centrales hidroeléctricas con embalse. Gracias a su diseño, pueden arrancar sus turbinas usando únicamente baterías auxiliares o generadores diésel, aprovechando directamente la presión del agua embalsada.

Eso fue exactamente lo que ocurrió tras el “cero eléctrico” del 28-A. Centrales como Aldeadávila, Ricobayo o Riba-roja d’Ebre comenzaron a funcionar de forma autónoma, inyectando los primeros kilovatios a una red completamente vacía. Red Eléctrica de España (REE) gestionó estas instalaciones para formar pequeñas “islas eléctricas” locales, donde se estabilizó tanto la frecuencia como la tensión, y sobre las que posteriormente se reconstruyó todo el sistema interconectado.

En este escenario, uno de los mayores retos no era solo volver a generar electricidad, sino garantizar la calidad del suministro. Y eso, fundamentalmente, significa mantener frecuencia y tensión dentro de unos márgenes muy concretos. Para lograrlo, los sistemas eléctricos de potencia cuentan con mecanismos de balance tales como la regulación primaria, secundaria y terciaria, entre otros, que reaccionan en distintas escalas temporales ante desequilibrios entre generación y demanda.

Generada con IA

El primer paso fue activar la regulación primaria, que reacciona de forma inmediata a las desviaciones de frecuencia. En este caso, las centrales hidráulicas operando en isla fueron capaces de mantener de forma autónoma la frecuencia en sus subredes locales. Una vez estabilizadas, entró en juego la regulación secundaria (AGC) desde el centro de control de REE, afinando aún más la frecuencia hasta devolverla al valor nominal de 50 Hz, y apoyando a la primaria. Esta fase fue posible gracias a la comunicación remota y la alta capacidad de respuesta de las turbinas hidráulicas.

Conforme más zonas iban recuperando tensión, las plantas hidráulicas incrementaban su potencia o cedían carga a otras tecnologías, como los ciclos combinados de gas, lo que permitió liberar reservas a través de la regulación terciaria, que también activó plantas en modo bombeo, como Estany Gento en el Pirineo, que actuaron como baterías gigantes para dar soporte adicional durante las siguientes horas y días.

En definitiva, el apagón del 28 de abril no solo puso a prueba la resiliencia del sistema eléctrico español, sino que también reivindicó el valor estratégico de la generación hidráulica. En el contexto actual de electrificación y transición energética, se vuelve cada vez más evidente la necesidad de contar con tecnologías flexibles, capaces de modular su potencia, almacenar energía o actuar sobre la demanda.

Desde CARTIF, trabajamos activamente en esta línea a través de proyectos europeos como D-HYDROFLEX o iAMP-Hydro, que buscan renovar las centrales hidroeléctricas existentes mediante sistemas híbridos y control inteligente. El objetivo: dotar a estas instalaciones de mayor flexibilidad, eficiencia y capacidad de estabilización, contribuyendo así a la construcción de un sistema eléctrico más robusto, sostenible y preparado para el futuro.

Conservar lo que somos: una nueva mirada técnica al mantenimiento del patrimonio construido

Conservar lo que somos: una nueva mirada técnica al mantenimiento del patrimonio construido

Bajo las bóvedas de una iglesia gótica, entre los muros gruesos de un monasterio cisterciense, en las yeserías de un palacio renacentista o en las fábricas de tapial y entramado de una casa tradicional, late una misma realidad: el patrimonio construido forma parte esencial de nuestra historia y de nuestra identidad colectiva. Un legado físico hecho de piedra, madera, cal, ladrillo o tierra cruda, que fue concebido con una lógica constructiva sabia y adaptada a su tiempo.

Hoy, sin embargo, buena parte de estos edificios se deterioran, se vacían y, en demasiados casos, desaparecen sin haber tenido una segunda oportunidad. La falta de un uso actualizado, la pasividad, la ausencia de planes de mantenimiento, el coste que suponen y, sobre todo, algo de lo que se habla muy poco o se mantiene de tapadillo: la incomprensión técnica de cómo fueron construidos, están acelerando su pérdida.

Ciclo de vida del Monasterio de Nuestra Señora del Prado (Valladolid), edificio piloto del proyecto INHERIT. Elaboración propia

¿Cómo conservar lo que no se conoce? ¿Cómo mantener con criterio si ignoramos cómo se construyó, el por qué de los materiales o qué lógica estructural hay detrás? La conservación preventiva no es una moda: es una necesidad urgente si queremos preservar nuestra herencia cultural con rigor y responsabilidad.

En CARTIF consideramos esencial investigar y desarrollar soluciones técnicas, innovadoras, pero a la vez realistas y asumibles, que ayuden a afrontar este reto desde el conocimiento y el respeto por lo construido. Queremos contribuir a una conservación más inteligente y más útil que no se base en la improvisación ni en recetas estándar, sino en comprender cómo se construyen las cosas para poder cuidarlas mejor, con la convicción de que la conservación del patrimonio es un proceso colectivo: una forma de valorar lo que nos une, de implicar a la ciudadanía y de reforzar el vínculo con nuestro entorno. Proyectos en los que venimos trabajando , como INHERIT o iPhotoCult, respaldan esta visión y refuerzan la necesidad de ofrecer una nueva mirada tecnológica a la conservación del patrimonio. Ya en nuestro post «La ITV de la edificación histórica» abordamos esta perspectiva; si te interesa profundizar, te recomendamos su lectura.

Los edificios históricos no responden a las reglas de la construcción moderna. Sus materiales: cal, ladrillo, piedra, madera, tierra…, son porosos, naturales, adaptados al clima y al contexto y sus sistemas constructivos, muros portantes, bóvedas, armaduras de cubierta, obedecen a una lógica diferente. Evaluarlos con los mismos criterios técnicos que un edificio de hormigón armado o acero no solo es incorrecto, es injusto.

Necesitamos herramientas que hablen el idioma del patrimonio construido. Una mirada específica que valore su singularidad técnica. Porque la diversidad constructiva, lejos de ser un problema, es un valor añadido.

Hoy en día, muchas inspecciones diagnósticas dependen casi exclusivamente de la experiencia del técnico que las realiza. Esto es valioso, imprescindible incluso, pero también insuficiente si no se estructura la información de manera homogénea, trazable y útil para procesos posteriores como la planificación del mantenimiento, la rehabilitación o al evaluación del riesgo. No se trata de imponer una única manera de inspeccionar, sino de proponer una estructura técnica común, abierta a evolución, que respete la diversidad y aumente la eficacia de las decisiones.

Flujo de trabajo hacia el mantenimiento preventivo basado en HBIM: de la toma de datos al conocimiento. Elaboración propia

Por ello, consideramos fundamental abrir el debate y avanzar hacia una propuesta metodológica que dé respuesta a las necesidades específicas de este ámbito con criterios técnicos claros y una visión sistemática que permita:

  • Identificar y valorar los sistemas constructivos históricos desde su propia lógica.
  • Detectar y estructurar los síntomas de deterioro por ámbitos técnicos (cimentación, estructura, fachada, cubierta, particiones y acabados interiores, cerrajería y carpintería, accesibilidad, e instalaciones y sistemas inteligentes).
  • Evaluar los riesgos asociados, tanto físicos como funcionales o ambientales.
  • Generar datos estructurados y reutilizables, que permitan conectar con herramientas digitales como modelos H-BIM o plataformas de mantenimiento.

Este enfoque no se basa en estandarizar por simplificar. Al contrario: propone unificar criterios técnicos de forma inteligente, consensuando entre diferentes profesionales, adaptándose a distintos contextos y tipologías, y respetando la diversidad arquitectónica y cultural del patrimonio construido, siempre alineados al marco normativo actual (como la serie UNE 41805 sobre diagnóstico de edificios) y usando como referencia las recomendaciones del Plan Nacional de Conservación Preventiva del Instituto del Patrimonio Cultural Español (IPCE).

Adoptar una metodología técnica adaptada al patrimonio ofrece beneficios concretos tanto para técnicos y empresas como para administraciones públicas:

  • Costes reducidos a medio y largo plazo, al evitar intervenciones de emergencia.
  • Transparencia y trazabilidad, con datos organizados y comparables entre edificios.
  • Valoración del conocimiento técnico tradicional, reconociendo la lógica y la eficacia de sistemas y materiales históricos, a la vez que se cubren nichos profesionales absolutamente necesarios, que actualmente carecen de cobertura.
  • Apoyo real a la toma de decisiones, sin sustituir criterios técnicos profesionales.
  • Conectividad con modelos digitales y modelos H-BIM, que permiten planificar el mantenimiento, evaluar los riesgos de deterioro, registrar el envejecimiento de materiales, o el comportamiento energético (cuando sea necesario).

Este tipo de herramientas son claves para conseguir una gestión más útil y proactiva, que ayude a planificar mejor, a intervenir menos, y a conservar más, permitiendo alcanzar un patrimonio sostenible, resiliente, eficiente en el uso de recursos y, en definitiva, rentable.

El potencial de este enfoque no termina en la inspección o el diagnóstico. Se abre un camino hacia herramientas digitales capaces de integrar modelos 3D, imágenes geolocalizadas, sensores ambientales, estructurales o de cualquier otro tipo, y monitorización de lesiones o incluso sistemas de IA que anticipen patrones de deterioro.

Flujo de trabajo aplicado a la excolegiata de Nuestra Señora de la Asunción de Roa (proyecto iPhotoCult), con toma de datos mediante plataforma robótica terrestre (UGV)

Pero todo esto solo será útil si parte de una base sólida: datos fiables, técnicos y bien estructurados. Porque la tecnología, por sí sola, no conserva edificios. Lo hacen las personas con criterio, apoyadas por herramientas que respetan lo construido y lo comprenden desde dentro.

El patrimonio edificado no es una colección de piedras antiguas. Es una expresión viva de nuestra identidad, de nuestra manera de habitar, de nuestros oficios, nuestras decisiones y nuestra memoria. Y conservarlo, hoy más que nunca, es una forma de cuidarnos como sociedad.