La computación cuántica no es ciencia ficción

La computación cuántica no es ciencia ficción

Para muchos amantes de la ciencia ficción, los ordenadores cuánticos son esos cacharros que pueden hacer de todo y que van instalados como ordenadores de a bordo en naves espaciales o aparecen como ordenadores portables de tamaño reducido y estética sofisticada. Para muchos de aquellos que no son fans del género, los ordenadores cuánticos no les suenan ni de eso. En cualquier caso, lo común a ambos grupos es que en su mayoría no piensan que estos ordenadores sean reales.

La realidad es que los ordenadores cuántico existen y ya están en uso. Cierto es que estos ordenadores están lejos de ser las máquinas omnipotentes que la ciencia ficción retrata, y mucho menos son dispositivos pequeños y portables que podamos usar en nuestro día a día.

ordenador computación cuántica
Fuente: https://learngerman.dw.com/es/ibm-crea-el-ordenador-cu%C3%A1ntico-superconductor-m%C3%A1s-potente-de-la-historia/a-59837328

Los ordenadores cuánticos actuales son congeladores del tamaño de un hombre adulto que cuelgan del techo de laboratorios, con una vistosa apariencia: plataformas horizontales con un montón de cables de color dorado. El motivo de su curioso diseño es la inestabilidad de estos ordenadores. Dada su naturaleza cuántica, estos ordenadores se ven afectados por todo tipo de perturbaciones, desde pequeños movimientos sísmicos hasta ondas electromagnéticas como ondas de radio o de teléfonos. Además, estos ordenadores funcionen bien únicamente cuando trabajan a prácticamente cero Kelvin, con tan solo la energía necesaria para que un único electrón sea capaz de moverse por chip cuántico.

Las características de estos ordenadores, junto a su inmensa inversión a la hora de construirlos, hacen bastante difícil que en la actualidad dispongamos de nuestro propio Personal Quantum Computer como disponemos de los ordenadores PC en la actualidad. Pero lejos de desmotivar, incluso con estas desventajas, los ordenadores cuánticos ya están en uso gracias a plataformas de acceso remoto. Existen incluso kits de desarrollo software1 con repositorios de algoritmos (entre ellos, algoritmos de machine learning y solvers de problemas de optimización), herramientas de desarrollo de circuitos/algoritmos cuánticos, simuladores cuánticos y acceso a ordenadores cuánticos de distintas características. Además, la bibliografía y los tutoriales para el uso de estas herramientas son cada vez más prolíferas.

El aumento del uso de la computación cuántica se debe al aumento de la financiación pública y privada en sectores como las telecomunicaciones, la movilidad, la banca, la criptografía o la ciencia de la vida2. Desde la comisión europea, se espera una inversión de un billón de euros dedicados a proyectos de investigación en este campo para los años 2018-2028. Hasta mediados de 2021, ya se han apoyado más de 20 proyectos con una financiación de 132 millones3.

En particular, en España, el Consejo de Ministros aprobó una subvención de 22 millones de euros para impulsar el campo de la computación cuántica en 2021 con el proyecto Quantum Spain, proyecto con una inversión estimada de 60 millones a tres años. Además, llega a Barcelona el primer ordenador cuántico en nuestro país.

Aunque el ordenador debería haber sido al revés, después de todas estas cifras de inversión en el desarrollo de esta tecnología, nos preguntamos a qué se debe todo este interés en la computación cuántica. La respuesta es que estos ordenadores permiten la resolución de problemas imposibles de resolver para los ordenadores tradicionales. Además, debido a su diferente funcionamiento, son capaces de realizar operaciones de una manera mucho más rápida y eficiente.

¿Sabías que toda la criptografía actual se basa en la incapacidad de los ordenadores actuales en resolver algunos problemas matemáticos? En cambio, un ordenador cuántico completamente desarrollado no tendrá ese problema. Podría, por ejemplo, descifrar tu número de cuenta bancaria y acceder a tus ahorros. O también entrar en el pentágono y descifrar todo tipo de documentos secretos. Pero tranquilo, por suerte o por desgracia, los ordenadores cuánticos aún están lejos de este nivel de desarrollo.

Otro ejemplo de su utilidad sería el control de los switches de una red eléctrica, cuando quieres determinar la configuración que te proporcione mínimas pérdidas junto a un suministro garantizado de todas las cargas en la red.

En general, los ordenadores cuánticos son muy útiles en cualquier problema de control y logística con variables binarias y de gran tamaño.

Queda claro que lejos de tratarse de ciencia ficción, la computación cuántica es una realidad que cada vez se hace más patente en el ámbito académico y profesional. Lejos aún de ser los ordenadores de a bordo de una nave espacial o el núcleo de procesamiento de un ordenadores portátil o similar, su presencia ha aumentado tremendamente en los últimos años, y se espera que aumente aún más en los próximos diez años. Es importante, por tanto, que los investigadores y científicos nos vayamos familiarizando con estas nuevas tecnologías lo antes posible.


1 https://qiskit.org/

2 https://www.capgemini.com/insights/research-library/quantum-technologies/

3 https://digital-strategy.ec.europa.eu/en

¿Por qué nos gustan más unos paisajes que otros?

¿Por qué nos gustan más unos paisajes que otros?

Cada paisaje produce sensaciones específicas, diferentes, únicas. Al contemplar una pradera salpicada de árboles sentimos algo totalmente distinto a lo que sentiríamos si contemplásemos una zona desértica. Esto mismo ocurre con los paisajes culturales1. No nos producen las mismas emociones contemplar una iglesia románica que unas pinturas rupestres.

Numerosas investigaciones concluyen que existe una correlación significativa entre nuestra personalidad y las preferencias paisajísticas. Otras investigaciones defienden que la relación hombre-paisaje tiene una base «innata», que se remonta a las necesidades de supervivencia de los humanos primitivos. Su entorno exigía capacidades perceptivas y predisposiciones, que hoy en día -a nivel psicológico- siguen funcionando. Esto explica el por qué seguimos prefiriendo los paisajes abiertos y ligeramente llanos (poder ver a los depredadores), con vegetación y buen acceso al agua (cubrir necesidades vitales).

Se puede decir entonces, que el sistema afectivo que se pone en juego en la valoración de los paisajes es una consecuencia de estrategias personales más amplias relativas a la personalidad, factores innatos y la actitud del individuo hacia el mundo (potenciada por sus experiencias y la sociedad en la que vive).

Es decir, la valoración de los paisajes depende de factores totalmente subjetivos y, por lo tanto, difíciles de cuantificar. Entonces, ¿qué hago si quiero medir «lo que nos gusta» de cierto tipo de paisaje cultural?

Aquí es donde entra la llamada «computación afectiva», que no es otra cosa que el estudio y el desarrollo de sistemas y dispositivos que puedan reconocer, interpretar y procesar emociones humanas.

CARTIF dentro del proyecto SRURAL está aplicando este conjunto de técnicas para obtener el «valor de afección» de cualquier paisaje cultural («medir lo que nos gusta el paisaje»). Con este fin se viene desarrollando un sistema cognitivo que utiliza como entradas el lenguaje verbal y las expresiones faciales por un lado, y por otro, ciertas señales fisiológicas del sujeto (ritmo cardiaco, sudoración y temperatura corporal) mientras observa el paisaje mediante unas gafas de realidad virtual como dispositivo inmersivo.

Estas entradas se introducen en una red neuronal previamente entrenada mediante técnicas Deep Learning2 para obtener como salida el valor de afección de dicho paisaje.

Esta información es muy útil para la toma de decisiones de los gestores del territorio para, por ejemplo, orientar las campañas de promoción turística hacia zonas con un valor de afección alto, pero que no tienen un número significativo de visitas. También para hacer un perfilado y segmentación de turistas según el tipo de paisajes más afín y así hacer campañas de promoción focalizadas y, por lo tanto, más efectivas.

También pude utilizarse para saber cuándo es necesario tomar alguna medida correctora o por lo menos realizar algún estudio de causas, al ver que cierta zona de interés turístico con un número importante de visitas tiene un valor de afección relativamente bajo.

Para ser realmente útil, esta información tiene que ser filtrada y procesada (no podemos saturar a la persona encargada de tomar las decisiones), debiendo ser mostrada de la forma más amigable posible utilizando interfaces intuitivos y geolocalizando dicha información. Por ello, el sistema en desarrollo incorpora módulos específicos que mediante técnicas de Minería de Datos y Big Data, muestra al usuario de la aplicación la información ya procesada y lista para sacar conclusiones, lo que llevará rápidamente a la toma de decisiones objetivas basadas en datos.


1 Se entiende por paisaje cultural aquel paisaje que combina patrimonio natural y cultural, y que ha sido modificado por el ser humano para adaptarlo a sus necesidades en función de sus creencias, actividad económica, y sociedad que conforma. Los ejemplos más obvios de estas modificaciones son los cultivos tradicionales, los edificios y las infraestructuras.

2 https://blog.cartif.es/deep-learning-vision-artificial/

Más información del proyecto SRURAL en su página web: https://srural.es/

¿Por qué Asia Central se ha convertido en un punto de interés para Europa?

¿Por qué Asia Central se ha convertido en un punto de interés para Europa?

En el año 2020, la Comisión Europea lanzó una propuesta de proyecto de investigación o («topic») con 10 millones de euros de presupuesto que perseguía el desarrollo de nuevas turbinas de generación Mini-hidráulica en Asia Central.

¿Qué tiene de interés esta zona remota del mundo para que la Comisión Europea financie allí un proyecto? Asia Central es un pivote geográfico de Eurasia y engloba las cinco repúblicas ex-soviéticas de Kazajistán, Kirguistán, Tayikistán, Turkmenistán y Uzbekistán. Se trata de una de las zonas habitadas de mayor antigüedad y como tal, ha sido testigo de ricas culturas y tradiciones como la antigua ruta de la seda. Sin salida al mar, es una zona de grandes recursos energéticos y minerales. En concreto, según un informe de 2019 de la Organización de Desarrollo Industrial de las Naciones Unidas, Asia Central tiene el segundo mayor potencial de generación Mini-hidráulica del mundo con 34.4 GW, y sólo es superada por Asia Oriental (China, Japón, las dos Coreas y Mongolia) con 75.4 GW. Sin embargo, a día de hoy, menos de un 1% de este potencial ha sido aprovechado, lo que supone que Asia Central es la región del mundo donde menos se ha desarrollado la generación Mini-hidráulica. Por tanto, parece evidente que detrás de este «topic», está el interés de la Comisión en abrir nuevos mercados para la industria europea de generación Mini-hidráulica.

¿Cuáles son las principales problemáticas que están impidiendo el desarrollo del sector en Centro Asia? Nos encontramos un variado abanico de barreras políticas, económicas, sociales, tecnológicas, legales y ambientales. Hay problemas comunes como la falta de información, la falta de financiación del sector privado, o la ausencia de incentivos legales. Algunos países de Asia Central tienen que lidiar con condiciones climáticas extremas, como por ejemplo, regiones de gran altitud donde es más probable que los arroyos se congelen en invierno. Además, es crucial considerar el concepto de nexo transfronterizo de Agua/Alimentos/Energía/Clima con visión de futuro para evitar desastres ecológicos como el del mar de Aral, que continúa su desecación a causa de la explotación insostenible de algodón.

El proyecto Hydro4U fue el ganador de esta convocatoria de la Comisión Europea y comenzó su andadura en junio de 2021 con una duración prevista de 5 años. Liderado por la Universidad de Múnich, el resto del consorcio lo completan fabricantes europeos de turbinas como Global Hydro Energy, entidades de Centro Asia como el International Water Management Institute o centros tecnológicos como CARTIF, que está liderando las actividades de replicación. En el marco del proyecto se están desarrollando dos nuevas plantas de generación Mini-hidráulica con diseños adaptados a las condiciones de la región, y que reducirán radicalmente los costes de planificación, construcción y mantenimiento, sin comprometer la eficiencia de la generación de electricidad. Las plantas se instalarán en dos enclaves ya seleccionados de Uzbekistán y Kirguistán.

En cuanto a CARTIF, un punto clave del trabajo que estamos llevando a cabo es el desarrollo de una herramienta de replicación orientada a futuros inversores o autoridades públicas con el objetivo de apoyar la toma de decisiones sobre nuevos proyectos de generación Mini-hidráulica. La herramienta se basa en un modelo computacional que integra un sistema de información geográfica (SIG) y datos estadísticos. La herramienta se va a implementar a nivel de cuenca vertiente, pudiendo ser aplicada en los dos principales ríos de la región: Syr-Daria y Amu-Darya. Está previsto que la herramienta integre varios módulos interactivos, con el objetivo de (1) visualizar el potencial sostenible de la generación Mini-hidráulica y la capacidad instalada, (2) simular escenarios de generación considerando las limitaciones del Nexo Agua-Alimentos-Energía-Clima, la sostenibilidad de los recursos e impactos socioeconómicos y (3) proporcionar recomendaciones técnicas y lecciones aprendidas relacionadas con la implementación de nuevos proyectos de este tipo.

La herramienta de replicación de CARTIF verá la luz a finales de 2025, y en este momento estamos trabajando en la definición del potencial sostenible de generación Mini-hidráulica, así como en el modelo Nexus de Agua-Alimentos-Energía-Clima a nivel de cuenca que nos permitirán simular escenarios futuros de generación que sean sostenibles con los recursos naturales.


Mantente informado de los avances del proyecto en la sección de noticias de la web de Hydro4U, así como sus redes sociales: Twitter y Linkedin.

Difícil de medir

Difícil de medir

Los investigadores cada vez nos enfrentamos más ante situaciones de «digitalizar» algo no digitalizado anteriormente, temperaturas, presiones, consumos energéticos, etc… para estos casos buscamos un sistema de medida o un sensor en un catálogo comercial: una sonda de temperatura, un presostato, una pinza amperimétrica para medir una corriente eléctrica,etc.

En ocasiones, nos vemos en la necesidad de medir «algo» para lo que no se encuentran sensores comerciales. Esto puede ser debido a que no son métricas habituales y no hay suficiente mercado para ese tipo de sensores o directamente, no existen soluciones técnicas comerciales disponibles por diferentes razones. Por ejemplo, puede ser necesario medir características como la humedad de corrientes de materias sólidas, o características únicamente medibles en un laboratorio de control de calidad de forma indirecta y que necesitan un tiempo elevado de experimentación.

También, en ocasiones, se requiere medir características en ambientes de gran dureza por altas temperaturas, como pueden ser los hornos de fundición, o ambientes con mucho polvo que saturan cualquier sistema convencional de medida y en algunas ocasiones puede ser necesario evaluar una cualidad que no se distribuye de forma uniforme (p.ej. cantidad de grasa en una pieza de carne, presencia de impurezas). Otro factor a tener en cuenta, no siempre es posible instalar un sensor sin interferir en el propio proceso de fabricación del material que deseamos medir, o la única forma es tomar una muestra para realizar su análisis fuera de línea y obtener un valor o característica un tiempo después, pero nunca en tiempo real.

En estas situaciones, se necesita recurrir a soluciones a medida que denominamos sensores inteligentes o sensores cognitivos. Además de llamarles así para que parezcan algo exótico o cool, son soluciones que necesitan usar una serie de sensores «convencionales» junto con programas y algoritmos, por ejemplo, de inteligencia artificial, que procesen las medidas devueltas por estos sensores comerciales para tratar de dar una estimación lo más precisa posible de la cualidad que deseamos medir.

Actualmente nos encontramos desarrollando este tipo de sensores inteligentes para diferentes industrias de proceso como la fabricación de asfalto, barras de acero o medicamentos (p.ej. píldoras) en el marco del proyecto europeo CAPRI.

Por ejemplo, en la fabricación de asfalto es necesario secar arenas de diferentes tamaños antes de mezclarse con el betún. Durante el proceso de secado en continuo de estas arenas, el tamaño más fino de arena, denominado filler, se «desprende» en forma de polvo de árido de tamaño más grande y es necesario aspirar este polvo de forma industrial usando lo que se denomina filtro de mangas. Hoy en día, el secado y la aspiración de filler se realiza de forma que se asegura que todo el filler es extraído. El inconveniente de este proceso, es que, en realidad es necesario añadir filler adicional al mezclar las arenas secadas con el betún, pues es necesario en la mezcla, porque el filler mejora la cohesión de la mezcla rellenando huecos entre los granos de arena. Todo este secado y aspiración completo del filler supone un gasto energético que para tratar de minimizar sería necesario poseer una medida del mismo presente en la mezcla de arenas. Actualmente, esta medida se obtiene de forma puntual a través de un análisis granulométrico en laboratorio con una muestra de material antes de secar.

Dentro del proyecto CAPRI estamos trabajando en la compleja tarea de poder medir el flujo de filler aspirado durante el secado. No se encuentran en el mercado sensores garantizados para medir una gran concentración de polvo (200.000 mg/m3) en suspensión a temperatura elevada (150-200ºC).

En el marco del proyecto se ha desarrollado una solución para este problema cuyos resultados de laboratorio podéis consultar en el artículo de investigación recientemente publicado en la revista científica Sensors («Sensor inteligente basado en la vibración para medir el polvo en grandes caudales»).

Llevar a cabo el desarrollo de este tipo de sensores requiere realizar diferentes pruebas en laboratorio, bajo condiciones controladas que permitan verificar la factibilidad de dicha solución y posteriormente, también en condiciones de laboratorio, realizar unos ensayos calibrados que permitan asegurar que es posible estimar el flujo verdadero de filler aspirado en el proceso de secado de las arenas. El proyecto CAPRI ha completado con éxito las pruebas de este sensor y de otro pertenecientes a la fabricación de barras de acero y píldoras farmacéuticas.

El proyecto en su compromiso con la iniciativa de ciencia abierta impulsada por la Comisión Europea, ha publicado en su canal de Zenodo, diferentes resultados de estas pruebas de laboratorio que nos permiten corroborar el éxito preliminar de dichos sensores a falta de su validación y prueba en las zonas productivas de los socios colaboradores del proyecto. En un futuro próximo estaremos en condiciones de compartir los resultados del funcionamiento industrial de este y otros sensores desarrollados del proyecto.


Co-Autora

Cristina Vega Martínez. Ingeniera Industrial. Coordinadora del proyecto CAPRI H2020

Nuevos retos en alimentos plant-based

Nuevos retos en alimentos plant-based

La preocupación y concienciación medioambiental ligada al crecimiento esperado de la población, y con ello el incremento de la demanda de alimentos y la necesidad de asegurar la sostenibilidad de los recursos mediante procesos más eficientes ha generado un cambio en las tendencias de consumo.

Los consumidores, cada vez más preocupados por la salud y la necesidad de buscar alimentos más naturales, se inclinan por dietas con menor consumo de carne, e incluso, dietas veggie (vegana, flexitariana y vegetariana), lo que al final se traduce en un aumento en la búsqueda de proteínas alternativas de origen vegetal y en la generación de nuevos alimentos denominados plant-based.

España cuenta con 5,1 millones de veggies, pasando del 8% en 2017 al 13% en 2021, lo que supone un crecimiento de la población veggie del 34% tan solo en cuatro años. Por otra parte, un 56% de los consumidores indican haber comprado al menos alguna marca veggie por el mero hecho de la curiosidad ante el aumento de estos productos.

Cada vez es más común encontrarnos en los lineales productos alternativos elaborados a partir de proteínas vegetales. Los productos «plant-based» engloban desde alternativas vegetales a la leche, las ya conocidas bebidas vegetales, las cuales encabezan la lista de los productos más demandados, seguidas de los análogos cárnicos, pero también alternativas al huevo, al queso, al pescado, así como sus respectivos productos derivados.

Para entender mejor como se obtienen estos productos hagamos un recorrido por las materias primas más utilizadas actualmente que son, entre otras: insectos, algas, microproteínas, proteínas vegetales (legumbres y cereales), carne cultivada, que pueden someterse a diferentes procesos como la fermentación, extrusión o impresión 3D y con las que se pretende reemplazar la proteína de origen animal.

Las materias primas más extendidas y aceptadas son las proteínas vegetales, procedentes de legumbres y/o cereales. Con estas proteínas vegetales se elaboran las ya conocidas alternativas a los productos cárnicos o carne-sin carne. Todos estos términos hacen referencia a productos alimentarios con unas características sensoriales, sabor, textura, apariencia y valor nutricional similar a la de los productos cárnicos tradicionales.

A pesar del incremento de la oferta en productos análogos cárnicos, existen aún limitaciones para su uso extendido, siendo la principal aquella relacionada con las propiedades sensoriales. Para asegurar el éxito de estos productos, no basta con la utilización de proteínas de origen vegetal ya que el consumidor no está dispuesto a sacrificar la experiencia sensorial. Es por ello que, la industria alimentaria trabaja constantemente para mejorar la elaboración de estos productos, desarrollando y optimizando tecnologías y procesos en favor de altas cualidades organolépticas y nutricionales. En este sentido la tecnología de extrusión para la obtención de estructuras proteicas alternativas a la carne se presenta como una de las líneas tecnológicas de mayor potencial.

La extrusión es una tecnología muy versátil que se basa en la aplicación de alta temperatura y tiempos cortos, donde los ingredientes se tratan de forma continua y se fuerzan a través de una matriz que los forma y texturiza, produciéndose varios cambios de manera simultánea en la estructura y composición química de los ingredientes por medio de la aplicación de energía térmica y mecánica, lo que permite la obtención de una amplia gama de productos.

Para conocer un poco más acerca de este proceso y como actúa sobre las proteínas vegetales, es necesario diferenciar los dos tipos de vías que la tecnología de extrusión ofrece para obtener análogos cárnicos. Por un lado, la extrusión de alta humedad (también conocida como HME, high moisture extrusion), permite obtener productos fibrosos no expandidos que imitan la textura y sensación en boca de los productos cárnicos. Por tanto, serán la base proteica a la hora de elaborar un análogo cárnico. Por otro lado, la extrusión en seco origina los denominados texturizados vegetales proteicos (TVP, textured vegetable protein), característicos por su expansión y que requieren una hidratación posterior previa a su utilización.

Puesto que la extrusión de alta humedad permite crear un producto con una estructura similar a la de la carne, veamos que ocurre realmente con las proteínas vegetales durante este proceso denominado texturización:

Se podría explicar como un proceso en dos fases; en primer lugar la proteína se encuentra en su estado nativo, con una estructura compleja y sin acceso a su funcionalidad, al aplicar calor y fuerzas de cizalla durante el cocinado tiene lugar una desnaturalización de la proteína perdiendo su estructura nativa y dejando accesibles los sitios de unión para nuevos enlaces lo que facilita que en la segunda etapa de enfriamiento, la proteína se reorganice formando nuevos enlaces, dando lugar a un producto de naturaleza fibrosa.

El gran desafío de estos procesos está en la innovación en el uso de la tecnología de extrusión-texturización combinada con distintas mezclas de proteínas vegetales para obtener texturas mejoradas.

Esta tecnología implica un doble reto: por un lado, la elección de las materias primas, es un parámetro clave, siendo necesario elegir la fuente de proteína vegetal adecuada capaz de proporcionar las mejores características al producto final con un buen comportamiento durante el procesado y, por otro lado, lograr y optimizar las condiciones del proceso ajustando las variables de cada uno de los parámetros para llegar a la textura deseada. Por tanto, para lograr una mejor textura en análogos cárnicos hay que tener en cuenta: la elección de las materias primas, cuál es la fuente proteica, el contenido de proteína-aislado, concentrado, harina y la elección de las condiciones para los parámetros del proceso.

En definitiva, conseguir obtener productos similares a los de origen animal incorporando fuentes alternativas de proteínas como los cereales o leguminosas, e incluso algas, insectos o microproteinas, es uno de los retos a los que se enfrenta la industria de alimentación. Aunque la tecnología de extrusión permite obtener nuevos productos plant-based, es necesario continuar desarrollando esta tecnología para lograr el análogo «perfecto» que cumpla todos los requisitos en cuanto a textura, sabor y propiedades nutricionales.

En CARTIF trabajamos para integrar y optimizar el proceso de texturización con distintos ingredientes y sus mezclas, con el fin de conseguir análogos cárnico con las mejores propiedades. Un ejemplo de ello es el proyecto Meating Plants, donde se investiga el uso de proteínas de leguminosa para mejorar la calidad en la obtención de análogos cárnicos.

Del Apolo 13 a los gemelos digitales de los edificios

Del Apolo 13 a los gemelos digitales de los edificios

«Houston, tenemos un problema»

Esta frase que ya forma parte de la historia, y que a la mayoría nos suena familiar aunque pertenezcamos a otra generación, se utilizó por los astronautas a bordo de la nave espacial Apolo13 después de que explosionara un tanque de oxígeno en la misma, dos días después de que comenzará su misión espacial de aterrizar en la luna, cuyo lanzamiento había tenido lugar el 11 de abril de 1970. Durante días, este acontecimiento fue mundialmente seguido por millones de personas para saber la suerte que les depararía a los 3 astronautas a bordo de la nave. Mientras tanto, desde la NASA se dedicaron a generar a contrarreloj una réplica digital mediante simuladores controlados por ordenador que replicarían las condiciones que se estaban produciendo en el espacio. Este modelo, que era fiel a la realidad, les permitía predecir el comportamiento que tendría la nave en el espacio para encontrar la solución más adecuada para poder traer de vuelta a la tripulación. Se podría decir que esta fue la primera aproximación hacia el concepto de gemelo digital.

Existen muchas definiciones diferentes del concepto de gemelo digital, o Digital Twin en su nombre en inglés, una de las primeras fue dada por Michael Grieves, experto en la gestión del ciclo de vida de los productos, cuya definición estaba centrada en la comparación virtual entre lo que se había producido con el diseño previo del producto, con el objetivo de mejorar los procesos de producción1. El campo de aplicación de los gemelos digitales es muy amplio, así como sus definiciones posibles, pero en términos generales podemos considerar que un gemelo digital es la representación digital de un activo físico, o de un proceso o sistema, del mundo físico real.

Los gemelos digitales se basan en la fidelidad de los mismos con la realidad, con el mundo físico, que nos permitan realizar predicciones futuras y optimizaciones en los mismos, donde se pretende que ambos ecosistemas, el del mundo físico y el ecosistema del gemelo digital (con la representación del mundo virtual), co-evolucionen entre sí, es decir, que se vean afectados el uno al otro y de un modo sincronizado. Esto es posible debido a que ambos modelos están conectados automáticamente de un modo bi-direccional. Cuando se produce solo la conexión automática de un modo uni-direccional, y que iría del modelo real existente en el mundo físico al modelo digital del mundo virtual, no podemos llamarlo como tal un gemelo digital, para estos casos recibiría el nombre de sombra digital. Un modelo digital por sí solo no podría considerarse un gemelo digital si no existe conexión automática entre el mundo físico y el virtual. El uso de Tecnologías de la Información y la Comunicación (TIC) junto con las técnicas de Inteligencia Artificial, entre ellas el aprendizaje automático o Machine Learning, permiten al gemelo digital aprender, predecir y simular comportamientos futuros para mejorar su operación.

Y todo esto del gemelo digital, ¿para qué?

El uso de los gemelos digitales se puede utilizar en numerosos campos, por ejemplo en las líneas de fabricación industrial, para mejorar los procesos de producción, o aspectos como su sostenibilidad energética y ambiental, campos en los que proyectos como ECOFACT están trabajando actualmente. Otro uso de los gemelos digitales se podría dar en las ciudades inteligentes o Smart Cities, gracias a lo cual se podría mejorar la gestión vial, la recogida de residuos, etc. A nivel edificio puede ser útil su aplicación tanto a nivel terciario (aquellos edificios dedicados al sector servicios) como puede ser un aeropuerto (donde se podría utilizar para predecir y gestionar más adecuadamente el edificio basándose en patrones de uso, asociados al tráfico aéreo programado) así como un edificio comercial o industrial, centrándonos en este caso en el edificio en sí, y no tanto en la línea de producción comentada anteriormente. A nivel residencial, el uso de gemelos digitales del edificio nos podrían ser también de gran utilidad, ya que podríamos predecir el comportamiento térmico del mismo, asociado a patrones de uso, para mejorar el acondicionamiento térmico del ambiente interior y minimizar el consumo de energía.

Desde CARTIF llevamos ya tiempo trabajando en la creación de modelos digitales de edificios basados en BIM (Building Information Modelling), con diferentes propósitos, como puede ser la mejora de la toma de decisiones a la hora de realizar proyectos de renovación profunda de edificios, con la finalidad de obtener la renovación más adecuada y conseguir una reducción de tiempo y coste en los mismos, con proyectos como OptEEmAL o BIM-SPEED. Estos modelos BIM, funcionarían como un facilitador para la integración de los sistemas estáticos (mundo físico) y dinámicos (mundo lógico proveniente de datos de redes IoT-Internet of Things) de un edificio, además de proporcionar el control en todas las fases del ciclo de vida de un edificio, desde su diseño, construcción, comisionado de sistemas, la fase de operación y mantenimiento, así como la posible demolición.

vinculación del mundo físico y digital a través de gemelo digital
Concepto de vinculación del mundo físico y digital a través de gemelos digitales basados en modelos BIM.

El reto que tenemos por delante en los próximos años, centrado en conseguir ciudades climáticamente neutras, que sean más sostenibles, funcionales y también inclusivas, hace que el uso de los gemelos digitales pueda ser de gran ayuda y vayan a ser cada día más utilizados y aplicados en estos ámbitos.


1https://theengineer.markallengroup.com/production/content/uploads/2014/12/Digital_Twin_White_Paper_Dr_Grieves.pdf