Centros de datos: construyendo la infraestructura invisible que mueve el mundo

Centros de datos: construyendo la infraestructura invisible que mueve el mundo

En 2025, el volumen de datos creados y consumidos en el mundo superó los 180 zettabytes (un zettabyte son mil millones de terabytes) y se prevé que esta cifra se triplique entre 2025 y 2029. Esta explosión digital global ha situado a los centros de datos en el núcleo de la infraestructura crítica contemporánea. Desde el sector de la edificación, los centros de datos representan una de las tipologías constructivas de mayor especialización técnica. No se trata simplemente de levantar un gran almacén lleno de equipos: la estructura, la envolvente, las instalaciones eléctricas, los sistemas de refrigeración y los controles de seguridad deben funcionar con una coordinación casi quirúrgica. Y cada vez más, estos edificios deben hacerlo de forma sostenible.

Cada vez que enviamos un correo electrónico, consultamos el pronóstico del tiempo o pedimos que una inteligencia artificial nos ayude, esa petición viaja a un edificio que casi nadie suele ver. Un centro de datos (data center) no es el típico servidor de una empresa al final de un pasillo, es una infraestructura industrial de alta complejidad, con miles de servidores y multitud de sistemas auxiliares. Están diseñados para almacenar, gestionar y procesar ingentes cantidades de datos y garantizar que estén siempre disponibles, dando soporte a servicios digitales esenciales: desde plataformas en la nube hasta inteligencia artificial, pasando por banca, administración o industria conectada.



La construcción de un centro de datos varía drásticamente según su propósito y escala. No es lo mismo diseñar una instalación para una Pyme que un nodo masivo para un gigante tecnológico. Hay que distinguir entre diferentes tipos de centros de datos en función de diferentes características:

  • Empresariales (On-Premises), construidos y gestionados por la propia empresa para uso exclusivo, ofreciendo máximo control
  • De colocación (Colocation), donde el proveedor alquila espacio, energía y seguridad a diversas empresas, permitiendo externalizar la infraestructura
  • Cloud Data Centers (Nube), infraestructura virtualizada y alojada por proveedores de servicios en la nube (ej. AWS, Azure), enfocada en escalabilidad y bajo demanda
  • Tipo híbrido, que son una combinación de infraestructura física y servicios de nube, optimizando flexibilidad y seguridad
  • Servicios gestionados, que son aquellos donde el proveedor no solo alquila espacio, sino que gestiona activamente la infraestructura del cliente.
  • Hiperescala (Hyperscale), que son centros masivos diseñados para computación en la nube masiva y Big Data, operados por gigantes tecnológicos (Google, Meta, AWS)
  • Edge Data Centers, que son instalaciones más pequeñas y descentralizadas, ubicadas cerca del usuario final para reducir la latencia
  • Micro Data Centers, que ofrecen soluciones compactas, a menudo prefabricadas, para necesidades específicas o entornos limitados.

Esta clasificación se basa en el estándar Tier del Uptime Institute, que es la referencia global.

ClasificaciónDisponibilidadRedundanciaPerfil típico
Tier I99,671%Sin redundanciaPymes, oficinas
Tier II99,741%ParcialEmpresas medianas
Tier III99,982%Mantenimiento sin cortesColocación, cloud regional
Tier IV99,995%Total, tolerante a fallosBanca, defensa, hiperescala

    Uno de los aspectos más críticos de los centros de datos es su elevado consumo energético. Un centro de datos a hiperescala puede consumir tanta electricidad como una ciudad de 100.000 habitantes. Diseñarlos bien no es solo una cuestión técnica: es una responsabilidad colectiva. La Agencia Internacional de la Energía (AIE) sitúa el consumo anual de los centros de datos en torno a 450 TWh, representando casi el 2% del consumo mundial de energía. Y las estimaciones indican que este consumo podría duplicarse de aquí al 2030.

    La eficiencia energética de un centro de datos se mide con el indicador PUE (Power Usage Effectiveness). Un PUE de 1,0 es el ideal teórico -toda la energía va a los servidores- y un PUE de 2,0 significa que por cada vatio útil se gasta otro en refrigeración, iluminación y otros sistemas auxiliares. El promedio de la industria ronda el 1,5, aunque los mejores centros modernos ya alcanzan valores entre 1,1 y 1,2.

    PUE (Power Usage Effectiveness) = Consumo total de energía de la instalación / Uso de energía de los equipos informáticos

    La refrigeración puede suponer entre el 35 y el 45 % del consumo eléctrico total del edificio. Por este motivo, la innovación en sistemas de refrigeración -refrigeración líquida por inmersión, intercambiadores de calor de dos fases, sistemas de enfriamiento evaporativo indirecto- es una de las líneas de investigación más activas y también uno de los ámbitos donde desde CARTIF vemos mayor potencial de transferencia tecnológica.

    El calor residual de un centro de datos no debe desperdiciarse; puede (y debe) ser reutilizado para sistemas de calefacción urbana (district heating) o para procesos industriales cercanos. Un centro de datos puede ser, literalmente, la caldera de un barrio entero. Proyectos europeos recientes demuestran que es viable inyectar ese calor en redes de distrito para calentar viviendas y edificios terciarios en invierno, convirtiendo un problema en un activo energético.


    Desde el punto de vista constructivo, los centros de datos difieren significativamente de los edificios convencionales. Su diseño está condicionado por tres factores clave: disponibilidad, seguridad y eficiencia. A diferencia de la edificación convencional, el proceso constructivo de un centro de datos se rige por la concurrencia crítica: la obra civil y la integración de sistemas complejos (eléctricos y mecánicos) deben avanzar en una coreografía perfecta. Los mayores retos que afronta este tipo de construcción especializada son:

    • Estructura y carga de suelo: los racks de servidores pueden superar los 1.500 kg/m². Las losas deben dimensionarse muy por encima de un edificio de oficinas convencional y el conjunto debe ofrecer soluciones constructivas robustas diseñadas para soportar riesgos externos (sismicidad, inundaciones, incendios).
    • Suministro eléctrico redundante: se requiere doble acometida de red, grupos electrógenos diésel o de hidrógeno, y sistemas UPS (SAI) de gran escala que garanticen ausencia de microcortes. Los cuartos eléctricos pueden ocupar el 30 % de la superficie total.
    • Refrigeración: este es el gran desafío ya que el calor disipado por los servidores es enorme. Los sistemas van desde el aire acondicionado de precisión (CRAC/CRAH) hasta la refrigeración líquida directa en rack, los techos fríos/calientes y las Free-Cooling towers, que aprovechan el aire exterior.
    • Seguridad física: otro aspecto crítico que debe incluir accesos biométricos, cámaras 360°, blindajes electromagnéticos (jaulas de Faraday), sistemas de detección precoz de incendios por aerosol o agentes limpios que no dañen los equipos y materiales de construcción con clasificaciones REI elevadas.
    • Gestión de cables e infraestructura: los suelos técnicos elevados y los falsos techos deben albergar kilómetros de fibra óptica y cableado, con compartimentación estricta y rutas redundantes.
    • Envolvente y eficiencia: hay que integrar fachadas con alto aislamiento, cubiertas que minimicen la ganancia solar y una orientación estudiada para aprovechar los vientos dominantes en estrategias de free-cooling pasivo. Por último, la disposición de salas técnicas, la orientación, y la integración de sistemas pasivos y activos deben optimizar el consumo energético global.

    El proceso constructivo de un centro de datos presenta particularidades que lo diferencian de otras tipologías edificatorias, principalmente por la necesidad de coordinar de forma precisa múltiples disciplinas que rara vez convergen en un único proyecto: ingeniería estructural de alta carga, sistemas eléctricos de media tensión, climatización de precisión, gestión BIM avanzada y tecnologías de monitorización. Tras una fase inicial de planificación y diseño altamente detallada -frecuentemente apoyada en metodologías BIM-, la ejecución se caracteriza por una secuencia muy controlada donde la obra civil y la instalación de sistemas críticos avanzan de forma paralela.

    La construcción suele iniciarse con una infraestructura base robusta (cimentaciones y estructura) capaz de soportar cargas elevadas y garantizar la estabilidad frente a vibraciones. Posteriormente, adquiere especial relevancia la implantación de sistemas eléctricos redundantes (centros de transformación, grupos electrógenos, sistemas UPS) y de climatización, cuya integración requiere espacios técnicos específicos y una ejecución extremadamente precisa. En fases finales, se llevan a cabo pruebas exhaustivas (commissioning) para verificar que todos los sistemas funcionan de forma coordinada bajo diferentes escenarios operativos, lo que resulta crítico antes de la puesta en servicio.

    El ciclo de vida de un centro de datos -desde la concepción hasta la operación y el desmantelamiento- es un terreno fértil para la aplicación de tecnologías emergentes. Estas son las más relevantes desde la perspectiva de la construcción e ingeniería de instalaciones:

    • Gemelos digitales y BIM. La metodología BIM (Building Information Modelling) es hoy absolutamente obligatoria en proyectos de centros de datos. Permite coordinar con precisión las instalaciones de todas las disciplinas antes de comenzar la obra, detectando colisiones y secuenciando los trabajos. El paso siguiente es el gemelo digital operacional: un modelo actualizado en tiempo real a partir de la sensórica instalada, que permite simular escenarios de fallo, optimizar la distribución de carga o gestionar el mantenimiento predictivo.
    • Construcción industrializada y modular. Los módulos prefabricados de centros de datos permiten mejorar la calidad y reducir los tiempos de puesta en marcha. Esta tendencia está siendo adoptada por los principales centros de datos como estrategia de escalado rápido.
    • Inteligencia artificial en la gestión y el mantenimiento predictivo. Los sistemas DCIM (Data Center Infrastructure Management) de última generación incorporan algoritmos de machine learning que optimizan en tiempo real el régimen de los equipos de frío, gestionan la distribución de carga entre servidores y predicen cuándo un componente va a fallar antes de que lo haga.
    • Refrigeración líquida directa (Direct Liquid Cooling). Ante la densidad de potencia de los nuevos procesadores de inteligencia artificial -que pueden superar los 400 W por chip-, el aire simplemente no es suficiente. Los sistemas DLC conducen agua o dieléctrico directamente hasta el procesador mediante placas frías, trasladando la gestión del calor al plano hidráulico y permitiendo recuperar ese calor a temperaturas útiles.
    • Energías renovables e hidrógeno. Las grandes corporaciones tecnológicas se han comprometido a operar con energía 100 % renovable, y muchos centros de datos incorporan plantas solares fotovoltaicas en cubierta o mediante contratos PPA (Power Purchase Agreement o Acuerdo de Compra de Energía). El hidrógeno verde emerge como alternativa a los grupos electrógenos diésel para la reserva de energía de larga duración, con los primeros proyectos piloto ya en marcha en Europa del Norte.

    La importancia de estas infraestructuras en la economía es incuestionable. En España, las inversiones previstas para este año superan los 8.000 millones de euros, con proyecciones que alcanzan los 67.000 millones para el final de la década. Un gran centro de datos no es solo un edificio: es un catalizador económico de primer orden. La construcción de un centro a hiperescala moviliza entre 400 y 2.000 puestos de trabajo directos durante la fase de obra, con una demanda intensa de perfiles especializados como electricistas industriales, técnicos de climatización, instaladores de redes de fibra óptica y operadores BMS (Building Management Systems).

    Una vez en operación, los centros de datos generan empleo estable y bien remunerado -técnicos de sistemas, ingenieros de instalaciones, operadores de seguridad- y pagan facturas eléctricas que contribuyen de forma significativa a los ingresos de las distribuidoras y a la fiscalidad local. España ha vivido en los últimos tres años una oleada de inversiones, especialmente en Madrid (que ya figura entre los cinco mayores hubs de datos de Europa), pero también en territorios como Aragón, Navarra o Galicia, que han activado ventanillas únicas y tarifas eléctricas favorables para atraer a los grandes operadores que además atraen a empresas tecnológicas que buscan cercanía a la infraestructura. En territorios como Castilla y León, con disponibilidad de suelo, acceso a energías renovables y condiciones climáticas favorables, existe una oportunidad clara para atraer este tipo de inversiones.

    Desde una perspectiva de política regional, invertir en este tipo de infraestructuras contribuye directamente a los objetivos de la agenda digital europea (Digital Compass 2030) y a la soberanía tecnológica, evitando que los datos de ciudadanos y empresas europeas residan exclusivamente en infraestructuras de terceros países.


    Como hemos visto, los centros de datos pueden ofrecer grandes beneficios que incluyen la creación de empleo directo en fases de construcción y operación, el desarrollo de infraestructuras energéticas y de telecomunicaciones muy avanzadas, la atracción de empresas tecnológicas y startups y en general, un incremento de la competitividad regional.

    El sector de los centros de datos abre múltiples vías de negocio donde la colaboración entre la industria y los centros de investigación resulta especialmente valiosa:

    Consultoría técnica especializada. El mercado demanda arquitectos e ingenieros con formación específica en centros de datos. La escasez de este perfil en España es una oportunidad real para despachos y consultoras que inviertan en formación y certificación.

    Investigación en eficiencia energética. Desde centros tecnológicos como Cartif, hay un espacio muy relevante para desarrollar y transferir soluciones de optimización energética, recuperación de calor residual e integración con redes de energía inteligentes (smart grids).

    Materiales y sistemas constructivos avanzados. La industria demanda envolventes de alta eficiencia, soluciones de gestión hídrica para sistemas de enfriamiento evaporativo y materiales con certificaciones medioambientales rigurosas (EPD, cradle-to-cradle).

    Mantenimiento predictivo e inspección. El uso de drones con termografía, robots de inspección y plataformas de análisis de datos basadas en IA, para predecir el fallo de instalaciones críticas es un mercado en expansión y con alto valor añadido.

    Simbiosis industrial con el calor residual. La integración de centros de datos en redes de calor urbano requiere ingeniería de sistemas, acuerdos urbanísticos y modelos de negocio innovadores que son terreno propicio para la investigación aplicada.


    Los centros de datos son, paradójicamente, los edificios más influyentes de nuestra época y al mismo tiempo los más invisibles para la ciudadanía. Se levantan en polígonos industriales, se camuflan tras discretas fachadas y solo aparecen en los medios cuando algo falla. Sin embargo, cada búsqueda en internet, cada transacción bancaria, cada videollamada y cada petición a un modelo de inteligencia artificial pasa por ellos.

    Desde CARTIF, vemos en estos proyectos una encrucijada apasionante: la necesidad de construir más rápido, más eficientemente y de forma más sostenible, mientras la demanda crece a un ritmo que desafía cualquier previsión. La descarbonización del sector, la gestión inteligente de los recursos hídricos en regiones como Castilla y León, y la integración de los centros de datos en el tejido urbano y energético de las ciudades son desafíos que requieren exactamente el tipo de investigación aplicada y colaboración público-privada que es nuestra razón de ser.



    Cuando escuchamos los lamentos de los edificios históricos: del andamio al dato y del dato a la acción

    Cuando escuchamos los lamentos de los edificios históricos: del andamio al dato y del dato a la acción

    Cuando entramos en una catedral, paseamos por un monasterio o visitamos un castillo, pocas veces pensamos en todo lo que está ocurriendo en ellos “por dentro”. No vemos cómo la humedad sube lentamente por los muros, cómo los cada vez más recurrentes cambios bruscos de temperatura generan tensiones invisibles, o cómo una fisura milimétrica puede acabar siendo una grieta escandalosa con el paso del tiempo. Y, sin embargo, ahí es donde empieza muchas veces el deterioro del patrimonio.

    Conservar nuestros edificios históricos no es solo restaurarlos cuando aparece esa grieta o limpiarlos cuando una fachada está deslucida. Es, sobre todo, anticiparse. Entender qué les está pasando antes de que el problema sea evidente. Con esa idea nace el Modelo Integral de Monitorización Inteligente y Evaluación Predictiva de Riesgos en Bienes de Interés Cultural (MIMER-BIC), desarrollado por el Área de Patrimonio Cultural de CARTIF.

    Este modelo parte de algo en lo que seguro que todos estamos de acuerdo: para saber lo que le pasa a alguien, primero tenemos que escucharlo. Y si ese “alguien” es algo tan valioso como nuestros edificios históricos, escuchar significa medir. Sensores que registran la temperatura, la humedad, la luz (infrarroja, visible y ultravioleta), la calidad del aire, el crecimiento de grietas, la inclinación de los muros, las vibraciones, la presencia de insectos que atacan la madera, el número de visitantes o incluso las posibles intrusiones. Pero lo realmente innovador no es colocar sensores, sino transformar esos datos en información útil. El modelo convierte todas esas mediciones en indicadores claros y en índices de riesgo que permiten saber, con una escala sencilla de 0 a 100, si un edificio está en situación estable o si necesita una actuación prioritaria.

    Representación gráfica del modelo MIMER-BIC

    Gracias a esta metodología, es posible detectar si el ambiente interior está poniendo en peligro pinturas o retablos, si una estructura está sufriendo movimientos anómalos, si el exceso de visitantes está afectando al microclima, si un episodio meteorológico puede acelerar el deterioro exterior, si está empezando un incendio o si alguien ha entrado donde no debe. Ya no se trata de reaccionar cuando el daño es visible, sino de prevenirlo con tiempo y, sobre todo, con criterio.

    Detrás de este avance hay muchos años de investigación. El equipo de CARTIF ha trabajado intensamente en diferentes tecnologías como:

    • Escaneado 3D
    • HBIM
    • Conservación preventiva
    • Análisis estructural
    • Modelización de riesgos
    • Sensorización avanzada
    • Inteligencia artificial aplicada al patrimonio

    Pero este camino no lo ha recorrido en solitario. El trabajo codo con codo con empresas del sector (donde es especialmente destacable el papel de TRYCSA) ha sido clave para que el modelo no se quedara en el papel, sino que pudiera aterrizar en la realidad. Su experiencia práctica, su conocimiento técnico y su implicación han permitido que la propuesta metodológica se contraste, se ajuste y se convierta en una herramienta aplicable y eficaz.

    El resultado es un modelo original con una metodología propia (desde la definición de tipologías arquitectónico-funcionales y de las grandes familias de patologías, hasta la formulación de índices sintéticos de riesgo) que está protegido por la normativa de propiedad intelectual. Esta protección no es un mero trámite jurídico: es el reconocimiento de que estamos ante una propuesta pionera, con un alto valor científico y tecnológico para el sector de la conservación del patrimonio. Un modelo desarrollado en Castilla y León, pero con vocación claramente global y en la primera línea de la investigación aplicada al patrimonio cultural.



    En un momento en el que el cambio climático, la presión turística y la falta de recursos ponen a prueba la capacidad de conservación, disponer de herramientas que permitan priorizar, planificar y decidir con datos objetivos es más necesario que nunca. El modelo MIMER-BIC representa precisamente eso: una nueva forma de cuidar lo que es de todos, combinando conocimiento experto, tecnología y colaboración entre investigación y empresa. Porque al final, conservar el patrimonio no es solo mantener en pie edificios antiguos. Es proteger historias, recuerdos, y una identidad compartida. Y hacerlo con inteligencia hoy es la mejor garantía de que seguirán ahí mañana.


    Inteligencia Artificial y Patrimonio Cultural: una alianza prometedora (con matices)

    Inteligencia Artificial y Patrimonio Cultural: una alianza prometedora (con matices)

    Todos sabemos que la Inteligencia Artificial (IA) se está aplicando con gran acierto en sectores como la medicina, la industria o la movilidad, donde existen millones de datos, imágenes y modelos con los que entrenar algoritmos cada vez más precisos. Sin embargo, cuando se trata del Patrimonio Cultural, la situación es muy distinta.

    El Patrimonio (monumentos, obras de arte, yacimientos arqueológicos o archivos históricos, entre otros) es frágil y, en muchos casos, irrepetible. No existen grandes bases de datos de las que deriven los miles o millones de ejemplos que son necesarios para “alimentar” a una IA. Cada bien patrimonial tiene sus particularidades arquitectónicas, materiales, estados de conservación y contextos históricos que lo hace único. Esta escasez de datos convierte no sólo en un reto, sino en un auténtico desafío aplicar las técnicas de IA tal y como se usan en otros sectores.

    Es más, incluso cuando existen datos suficientes para conformar una base de conocimiento útil, suele haber reticencias a compartirlos, y no digamos nada para hacerlos públicos. En muchos casos, la información sobre el estado real de conservación de un bien, ya sea mueble o inmueble, se considera comprometida o sensible, ya que revelar deterioros, vulnerabilidades o patologías podría tener consecuencias no deseadas, desde cuestiones legales o de seguridad hasta repercusiones económicas o reputacionales.

    Aun así, la IA puede ayudar a extraer el máximo valor de la información disponible, combinando datos procedentes de múltiples fuentes: informes técnicos, análisis científicos, catas, modelos 3D, imágenes históricas o incluso percepciones de expertos.

    Lo que es muy claro es que, a diferencia de otros ámbitos que serán copados por la IA, en Patrimonio no sustituirá nunca al experto humano. La toma de decisiones sobre la conservación o restauración de un bien requiere de un profundo conocimiento contextual, sensibilidad (algún día hablaremos de qué significa esto), juicio ético y creatividad, algo que ninguna máquina puede replicar.

    Ahora bien, lo que sí puede hacer, y de hecho acabará irremediablemente haciendo la IA, es apoyar a los especialistas: analizar volúmenes de información que antes requerían semanas de trabajo, detectar patrones o proponer hipótesis de comportamiento de materiales, obras de arte o edificios enteros ante distintos escenarios. En definitiva, ofrecer al profesional una visión integrada y rápida que le permita tomar decisiones más informadas.


    Mirando al futuro, que en el caso del Patrimonio es el largo plazo, a medida que se generen más datos digitales del Patrimonio (escaneos 3D, registros fotogramétricos, imágenes en diferentes bandas espectrales y resoluciones, análisis químicos o sensorización para conservación preventiva), las oportunidades crecerán. Y lo harán exponencialmente. Pero siempre manteniendo un principio básico: la IA es una herramienta de ayuda a la preservación, no un sustituto del criterio humano que garantiza que nuestro legado cultural siga vivo, comprensible y auténtico.

    CARTIF está ya en ello de la mano de entidades que complementariamente juegan un papel fundamental en la investigación, protección, conservación, restauración y difusión del Patrimonio. Proyectos como iPhotoCult a nivel europeo, donde se evaluará la aplicabilidad de la IA a la valoración de la integridad estructural de armaduras de cubierta histórica en madera inspeccionadas con un robot-perro en la Iglesia de Ntra. Sra. De la Asunción (Roa, Burgos) como referente; o el recientemente concedido proyecto MINERVA, que a nivel español digitalizará los procesos de inspección técnica de edificación histórica definidos en el previo ITEHIS (presentados recientemente ante el Comité Técnico Español de Conservación, Restauración y Rehabilitación de Edificios del UNE) aportará conocimiento experto empresarial para ver por dónde puede orientarse la IA en este sentido.

    Mucho camino por recorrer y pasito a pasito: ¿andamos juntos?

    Conservar lo que somos: una nueva mirada técnica al mantenimiento del patrimonio construido

    Conservar lo que somos: una nueva mirada técnica al mantenimiento del patrimonio construido

    Bajo las bóvedas de una iglesia gótica, entre los muros gruesos de un monasterio cisterciense, en las yeserías de un palacio renacentista o en las fábricas de tapial y entramado de una casa tradicional, late una misma realidad: el patrimonio construido forma parte esencial de nuestra historia y de nuestra identidad colectiva. Un legado físico hecho de piedra, madera, cal, ladrillo o tierra cruda, que fue concebido con una lógica constructiva sabia y adaptada a su tiempo.

    Hoy, sin embargo, buena parte de estos edificios se deterioran, se vacían y, en demasiados casos, desaparecen sin haber tenido una segunda oportunidad. La falta de un uso actualizado, la pasividad, la ausencia de planes de mantenimiento, el coste que suponen y, sobre todo, algo de lo que se habla muy poco o se mantiene de tapadillo: la incomprensión técnica de cómo fueron construidos, están acelerando su pérdida.

    Ciclo de vida del Monasterio de Nuestra Señora del Prado (Valladolid), edificio piloto del proyecto INHERIT. Elaboración propia

    ¿Cómo conservar lo que no se conoce? ¿Cómo mantener con criterio si ignoramos cómo se construyó, el por qué de los materiales o qué lógica estructural hay detrás? La conservación preventiva no es una moda: es una necesidad urgente si queremos preservar nuestra herencia cultural con rigor y responsabilidad.

    En CARTIF consideramos esencial investigar y desarrollar soluciones técnicas, innovadoras, pero a la vez realistas y asumibles, que ayuden a afrontar este reto desde el conocimiento y el respeto por lo construido. Queremos contribuir a una conservación más inteligente y más útil que no se base en la improvisación ni en recetas estándar, sino en comprender cómo se construyen las cosas para poder cuidarlas mejor, con la convicción de que la conservación del patrimonio es un proceso colectivo: una forma de valorar lo que nos une, de implicar a la ciudadanía y de reforzar el vínculo con nuestro entorno. Proyectos en los que venimos trabajando , como INHERIT o iPhotoCult, respaldan esta visión y refuerzan la necesidad de ofrecer una nueva mirada tecnológica a la conservación del patrimonio. Ya en nuestro post «La ITV de la edificación histórica» abordamos esta perspectiva; si te interesa profundizar, te recomendamos su lectura.

    Los edificios históricos no responden a las reglas de la construcción moderna. Sus materiales: cal, ladrillo, piedra, madera, tierra…, son porosos, naturales, adaptados al clima y al contexto y sus sistemas constructivos, muros portantes, bóvedas, armaduras de cubierta, obedecen a una lógica diferente. Evaluarlos con los mismos criterios técnicos que un edificio de hormigón armado o acero no solo es incorrecto, es injusto.

    Necesitamos herramientas que hablen el idioma del patrimonio construido. Una mirada específica que valore su singularidad técnica. Porque la diversidad constructiva, lejos de ser un problema, es un valor añadido.

    Hoy en día, muchas inspecciones diagnósticas dependen casi exclusivamente de la experiencia del técnico que las realiza. Esto es valioso, imprescindible incluso, pero también insuficiente si no se estructura la información de manera homogénea, trazable y útil para procesos posteriores como la planificación del mantenimiento, la rehabilitación o al evaluación del riesgo. No se trata de imponer una única manera de inspeccionar, sino de proponer una estructura técnica común, abierta a evolución, que respete la diversidad y aumente la eficacia de las decisiones.

    Flujo de trabajo hacia el mantenimiento preventivo basado en HBIM: de la toma de datos al conocimiento. Elaboración propia

    Por ello, consideramos fundamental abrir el debate y avanzar hacia una propuesta metodológica que dé respuesta a las necesidades específicas de este ámbito con criterios técnicos claros y una visión sistemática que permita:

    • Identificar y valorar los sistemas constructivos históricos desde su propia lógica.
    • Detectar y estructurar los síntomas de deterioro por ámbitos técnicos (cimentación, estructura, fachada, cubierta, particiones y acabados interiores, cerrajería y carpintería, accesibilidad, e instalaciones y sistemas inteligentes).
    • Evaluar los riesgos asociados, tanto físicos como funcionales o ambientales.
    • Generar datos estructurados y reutilizables, que permitan conectar con herramientas digitales como modelos H-BIM o plataformas de mantenimiento.

    Este enfoque no se basa en estandarizar por simplificar. Al contrario: propone unificar criterios técnicos de forma inteligente, consensuando entre diferentes profesionales, adaptándose a distintos contextos y tipologías, y respetando la diversidad arquitectónica y cultural del patrimonio construido, siempre alineados al marco normativo actual (como la serie UNE 41805 sobre diagnóstico de edificios) y usando como referencia las recomendaciones del Plan Nacional de Conservación Preventiva del Instituto del Patrimonio Cultural Español (IPCE).

    Adoptar una metodología técnica adaptada al patrimonio ofrece beneficios concretos tanto para técnicos y empresas como para administraciones públicas:

    • Costes reducidos a medio y largo plazo, al evitar intervenciones de emergencia.
    • Transparencia y trazabilidad, con datos organizados y comparables entre edificios.
    • Valoración del conocimiento técnico tradicional, reconociendo la lógica y la eficacia de sistemas y materiales históricos, a la vez que se cubren nichos profesionales absolutamente necesarios, que actualmente carecen de cobertura.
    • Apoyo real a la toma de decisiones, sin sustituir criterios técnicos profesionales.
    • Conectividad con modelos digitales y modelos H-BIM, que permiten planificar el mantenimiento, evaluar los riesgos de deterioro, registrar el envejecimiento de materiales, o el comportamiento energético (cuando sea necesario).

    Este tipo de herramientas son claves para conseguir una gestión más útil y proactiva, que ayude a planificar mejor, a intervenir menos, y a conservar más, permitiendo alcanzar un patrimonio sostenible, resiliente, eficiente en el uso de recursos y, en definitiva, rentable.

    El potencial de este enfoque no termina en la inspección o el diagnóstico. Se abre un camino hacia herramientas digitales capaces de integrar modelos 3D, imágenes geolocalizadas, sensores ambientales, estructurales o de cualquier otro tipo, y monitorización de lesiones o incluso sistemas de IA que anticipen patrones de deterioro.

    Flujo de trabajo aplicado a la excolegiata de Nuestra Señora de la Asunción de Roa (proyecto iPhotoCult), con toma de datos mediante plataforma robótica terrestre (UGV)

    Pero todo esto solo será útil si parte de una base sólida: datos fiables, técnicos y bien estructurados. Porque la tecnología, por sí sola, no conserva edificios. Lo hacen las personas con criterio, apoyadas por herramientas que respetan lo construido y lo comprenden desde dentro.

    El patrimonio edificado no es una colección de piedras antiguas. Es una expresión viva de nuestra identidad, de nuestra manera de habitar, de nuestros oficios, nuestras decisiones y nuestra memoria. Y conservarlo, hoy más que nunca, es una forma de cuidarnos como sociedad.

    Por qué es importante monitorizar las zonas rurales

    Por qué es importante monitorizar las zonas rurales

    Las zonas rurales, a menudo, se enfrentan a desafíos que dificultan su desarrollo. La falta de infraestructura (física y digital), las oportunidades laborales limitadas, los riesgos ambientales y la necesidad de mayor inclusión social son solo algunos de los problemas con los que deben lidiar. Sin embargo, ahora tienen la oportunidad de tomar las riendas de su futuro y transformar su comunidad en un lugar más sostenible y próspero, gracias al proyecto RURACTIVE, en el que participa el área de Patrimonio de CARTIF.

    Una de las herramientas más valiosas que ofrece RURACTIVE es el Programa de Monitorización Adaptativo. No se trata solo de recopilar datos “al tún-tún”, sino de comprender la realidad y asegurarse de que las soluciones que se implementen realmente beneficien a la zona a largo plazo.

    Antes de planificar un mejor futuro, es necesario entender cómo se está actualmente. Eso es exactamente lo que proporciona la Línea Base del Dynamo (que es como se han denominado a las zonas rurales participantes en el estudio). La línea base (o Baseline) proporciona un panorama detallado de las condiciones sociales, económicas, ambientales y culturales de la región. Gracias a 136 indicadores clave identificados, es posible ver con claridad las fortalezas y desafíos, desde las tendencias de empleo hasta el estado de la biodiversidad.

    Esta línea base no es una fórmula genérica, sino que se adapta a la realidad de cada caso. Además, permite comparar el progreso con referencias regionales, nacionales e incluso europeas, asegurando que se mantienen alineados con objetivos de desarrollo más amplios. De entrada, esto ya supone ir un paso por delante (o dos) respecto de las formas habituales de estudiar el medio rural.


    El Programa de Monitorización nos permite ir más allá de la simple identificación de problemas: nos ayuda a seguir su evolución y detectar señales de advertencia temprana antes de que se conviertan en verdaderos problemas. Los Indicadores de Alerta Temprana (o Early Warning Indicators, EWI) son fundamentales en este sentido, ya que nos dan la capacidad de actuar antes de que problemas como el declive económico o el deterioro ambiental estén fuera de control.

    Al actualizar continuamente nuestra lista de indicadores, e incluir otros nuevos cuando sea necesario, aseguramos que el sistema de monitorización siga siendo flexible y adaptable. Esto significa que, a medida que la zona rural cambia, su capacidad para responder a nuevos desafíos también mejora.


    Uno de los mayores beneficios de participar en RURACTIVE es que las zonas rurales no están solas en este proceso. Gracias al Hub Digital de RURACTIVE, tienen acceso a una plataforma compartida donde pueden visualizar y analizar toda la información recopilada, cuando, donde y como quieran. Esto no solo hace que el progreso sea más transparente, sino que también permite que los líderes locales y la propia comunidad participen activamente en la toma de decisiones.

    Además, el proyecto fomenta un enfoque participativo, lo que significa que ciudadanos, negocios y organizaciones locales tienen voz en la definición de prioridades y la evaluación del progreso. Gracias a este programa, las zonas rurales tienen una mayor capacidad de decisión, basada en datos reales, medibles y que las retratan.

    Fig 1. Programa de Monitorización Adaptativo

    La figura 1 muestra el proceso completo cuando un Dynamo accede al Ecosistema RURACTIVE y se aplica el Programa de Monitorización Adaptativo. Primero, se desarrolla una línea base completa que describe la situación actual de la zona rural, basada en los valores de los Indicadores Clave de Empoderamiento Rural (o Key Rural Empowerment Indicators, KREI). Esta línea base incluye una extensa lista de indicadores, pero se adapta a las condiciones específicas del territorio que se está analizando, de forma que es rápido y fácil obtener los datos necesarios, pues se vinculan a aspectos afines y conocidos. Con la información recogida, se elabora un diagnóstico que ayuda a identificar los desafíos a los que se enfrenta y las posibles soluciones que se aplicarán en una etapa posterior en el Plan de Acción Local (Local Action Plan: LAP). El siguiente paso es ajustar los indicadores, o incluso definir algún indicador nuevo adaptado a las soluciones identificadas, y determinar cuáles van a ser los indicadores de alerta temprana (EWI). La herramienta de monitorización gestiona la recogida y procesamiento de los datos, ayudando a conocer cuál es la evolución del plan de acción local de manera periódica.


    Unirse a RURACTIVE y utilizar sus herramientas de monitorización no es solo una cuestión de números y estadísticas: es la clave para transformar una región en un lugar más conectado, resiliente y próspero. Gracias a un enfoque estructurado y basado en datos, se pueden diseñar estrategias que realmente funcionen, garantizando que la innovación, la sostenibilidad y la inclusión sean la base de su desarrollo.

    Para un Dynamo, este no es un proyecto más, es una oportunidad única para tomar las riendas de su propio progreso, con el respaldo del conocimiento, la colaboración y las mejores herramientas disponibles en un mundo que irremediablemente ha de ser digital e interconectado.


    Maya Tasis. Titulada en Ingeniería Técnica Industrial Mecánica por la Universidad de Oviedo. Experiencia en el exigente sector de la automoción, coordinando obras industriales, proyectos internacionales y gestión de equipos multidisciplinares. Actualmente investigadora de CARTIF, donde colabora en proyectos internacionales de mejora de procesos industriales y proyectos del área de Patrimonio cultural y natural.

    ¿Cómo suena eso de fabricación «metalecoaditiva»?

    ¿Cómo suena eso de fabricación «metalecoaditiva»?

    Es de sobra conocido el término ecodiseño, pero seguro que habéis oído hablar poco de ecofabricación, más aún cuando es un término que no está ampliamente reconocido en la literatura técnica ni académica. Sin embargo, es un concepto que se viene utilizando recientemente para describir prácticas de fabricación que incluyen de forma central aspectos medioambientales. Pues voy más allá, a ver cómo os cuento de qué va la fabricación «metalecoaditiva», término que me acabo de inventar para darle título a esto.

    Hace 40 años, Charles Hull y su invención de la estereolitografía (SLA) dio paso a lo que ahora conocemos como impresión 3D – o fabricación aditiva. Yendo un paso más allá, aparece después el concepto de impresión 3D de metales, que surge de décadas de desarrollo y experimentación, aunque su ideación se podría atribuir a Carl Deckard, pionero en el Sinterizado Selectivo por Láser (SLS) hace unos 30 años en la Universidad de Texas. Lejos entonces de su aplicación industrial, su desarrollo fue de la mano de más avances en materiales novedosos y láseres de alta potencia en los años 2000. Aunque muchos ya han oído hablar de procesos para impresión 3D de metales, como la Fusión Selectiva por Láser (SLM) o la Fusión por Haz de Electrones (EBM), cabe destacar que la tecnología tardó 10 años más en llegar a producciones industriales a gran escala – y no sólo prototipos, como se venía haciendo en fase de desarrollo para el sector aeronáutico, automotriz o médico (que son los que tenían el dinero para tales «juguetes»).

    En los últimos 15 años, los procesos de impresión 3D de piezas metálicas han seguido mejorando considerablemente (en precisión, resolución, velocidad, propiedades físicas, control de calidad…), en gran parte por la aparición de nuevos materiales y las características que éstos presentan. Por otro lado, se han creado metodologías para analizar la eficiencia de los propios procesos de fabricación, control paramétrico, automatización y robótica, que repercuten directamente en los costes, y por tanto posibilitan la expansión de la aplicación de impresión 3D de metales a otros sectores. Actualmente, estos procesos mejorados incluyen, por ejemplo, la Fusión por Lecho de Polvo (PBF), la Deposición Directa de Energía (DED) o la fabricación aditiva por Inyección de Metal (Binder Jetting).


    Bueno, pues todo esto de la fabricación aditiva es como todo proceso tecnológico – la mejora es imparable: no se hacen aviones ahora como hace 120 años, ¿verdad? Hace 120 años ya se volaba (12 segundos y 36,5 metros), pero no sé si estaríamos de acuerdo en definir volar a lo que hicieron los hermanos Wright en 1903. Su objetivo era «simplemente» volar y salir vivos. No creo que pudiesen imaginar que su curiosidad científica se convertiría en un pilar clave de la economía global, ni que pensasen en aviones de 600 pasajeros, en certificaciones que rigen el sector o la existencia ubicua de espacios para despegar y aterrizar.

    De la misma manera, seguramente Carl Deckard, más allá de su interés científico en ingeniería mecánica, no se planteaba cambiar el mundo con su invención. Sin embargo, igual que lo hizo el transporte aéreo, la fabricación de piezas metálicas de forma aditiva ha tenido, tiene y seguirá teniendo un impacto enorme a nivel global. Tenemos ahora nuevas reglas de juego y posibilidades de fabricación de diseños, imposibles hasta hace bien poco (diseños generativos), ya que sus costes económicos y medioambientales eran prohibitivos y rozaban la locura. Por ejemplo, quien no sepa cómo se fabrica una turbina de un avión (¡¡al menos de qué se parte o cuánto se tarda!!), no puede valorar la locura a la que me refiero… ¡y cada vez hay más aviones!

    Fuente: https://www.3d-grenzenlos.de/magazin/kurznachrichten/carl-robert-deckard-tod-gestorben-27555463/

    La conciencia ecológica (tan necesaria actualmente), el desafío que tenemos por delante y la transición hacia la sostenibilidad van a impulsar la economía circular en el uso de la fabricación aditiva ( o impresión 3D) metálica. ¿O podría ser la fabricación aditiva quien potencie la sostenibilidad medioambiental? ¿O tal vez se pueda crear un «bucle virtuoso» en las que los dos ámbitos se retroalimenten, por medio de nuevos conceptos como el que yo acuño aquí como fabricación metalecoaditiva?

    Simulación con lego de un laboratorio de fabricación metalecoaditiva. Autor: Norberto Ibán Lorenzana

    La cosa es que todo evoluciona y nuevos retos entran en contienda; ya no va a valer sólo con diseñar trenes de aterrizaje que cumplan su misión: aparte de que no muera nadie, deben ser competitivos. Debemos ( y se nos va a exigir) saber que han sido creados de la forma más sostenible posible y bajo criterios de circularidad. ¿Cómo? Bueno, mirando al futuro, imaginemos que las condiciones de fabricación de una pieza de responsabilidad estructural pudieran combinar varios procesos de fabricación, y no sólo uno (maquinado) u otro (aditivado). Imaginemos también que fuéramos capaces de hacer piezas que, aunque por las condiciones del proceso (más veloces) tuvieran acabados inadecuados, éstos se pudieran corregir en tratamientos posteriores con técnicas que impliquen un menor esfuerzo. O incluso, que, ante una falla de pieza, pudiésemos reacondicionarla directamente: es decir, sobre la misma pieza imprimir lo que le falta, y que así la misma empresa usuario de la pieza pueda repararla en sus propias instalaciones. ¡No tendríamos una pieza que desechar! Ojo, ¡ni la necesidad de hacer una pieza nueva! No incurriríamos en inventarios de piezas, almacenamiento o transporte de esos repuestos, tan indeseable…

    Pues bien, la combinación de la fabricación aditiva y la circularidad tiene un punto de sinergia que va a ser investigado e implementado durante los próximos 4 años a través de un proyecto europeo llamado DIAMETER, en el que participan más de 20 entidades de alto prestigio, de 4 continentes distintos. CARTIF es sólo una de estas entidades privilegiadas que ya han empezado a trabajar en construir un puente entre la fabricación aditiva de piezas metálicas y la economía circular.

    Este puente será un marco donde analizar una serie de piezas metálicas usadas en casos críticos de varios sectores productivos, y fabricadas por diferentes procesos de fabricación aditiva. En DIAMETER, se contrastarán resultados físico-experimentales de los procesos de fabricación frente a simulaciones computacionales de las piezas en esos procesos para, con ello, prever las respuestas de las piezas frente a diferentes modificaciones del proceso. Estas respuestas (de tensiones/deformaciones, entre otros) aportarán un conocimiento mecánico de la pieza y del proceso en cuanto a fallos, desperdicios, calidad, o necesidad de integrar posprocesado (fabricación híbrida combinando aditiva y sustractiva). En definitiva, una combinatoria de posibles escenarios y resultados que deben ser transformados en resultados cuantificables bajo un enfoque de sostenibilidad para alimentar un sistema basado en inteligencia artificial que proporcione decisiones automatizadas y óptimas sobre procedimientos y configuraciones en la fabricación aditiva de las piezas metálicas.

    «Un momento, ¡esto es una locura!»

    A ver, sí, una locura casi tan grande como tallar (maquinar) un bloque de 3m3 de acero inoxidable en un torno de 6 ejes durante una semana para obtener una turbina de avión o una turbina hidráulica. O, dicho de otra manera, 500k€ durante una semana, con la posibilidad de que, si hay errores, haya que tirar la turbina y volver a empezar de cero.

    Pero vamos a ir paso a paso. Lo primero va a ser caracterizar esos procesos de fabricación, ver cómo las piezas a fabricar se van generando y si estas sufren desvíos, imprecisiones, o analizar la propia calidad de la superficie. Para ello se va a emplear tecnología de visión artificial de verificación geométrica de piezas durante el proceso de fabricación, que son temáticas en las que CARTIF lleva trabajando 30 años…¡y lo que nos queda!


    Iñaki Fernández Pérez. Doctor en Inteligencia Artificial. Investigador en el área de Salud y Bienestar de CARTIF. Actualmente colabora en varios proyectos que buscan aplicar tecnologías punteras (IA, IoT, Edge Computing..)