Sistemas de geolocalización en interiores

Sistemas de geolocalización en interiores

Con los sistemas de posicionamiento global ha ocurrido un fenómeno similar a lo que ha pasado con los teléfonos móviles: en unos años hemos pasado de no que no existieran a considerarlos imprescindibles. Lo cierto es que, de hecho, la geolocalización es una de esas tecnologías que ha propiciado el desarrollo de multitud de aplicaciones y en muchos ámbitos ya no se concibe poder trabajar sin el uso del comúnmente llamado GPS.

Este tipo de sistemas de posicionamiento se basa en recibir la señal de tres o más satélites por medio de la trilateración inversa: determinando la distancia a cada uno de los satélites se obtiene la posición en coordenadas absolutas (normalmente WGS84).

satelite-geolocalizacion

Los sistemas de posicionamiento global basados en satélites tienen su origen en los años 60, en el sistema norteamericano TRANSIT. Con este sistema se podía conseguir fijar la posición una vez cada hora (en el mejor de los casos) con una precisión de unos 400 metros. A este sistema le siguió el Timation y en el año 1973 comenzó el proyecto Navstar (ambos norteamericanos). El primer satélite de este proyecto se lanzó en febrero de 1978 hasta completar la constelación actual, a la que se declaró con plena capacidad operacional en abril de 1995. Este sistema Navstar-GPS es el origen del nombre genérico GPS que solemos aplicar a todos los sistemas de navegación global. En 1982 la antigua Unión Soviética lanzó los primeros satélites de un sistema similar llamado GLONASS que comenzó a estar operativo en 1996. Por su parte, la República Popular China lanzó en el año 2000 el primer satélite de su sistema de navegación BeiDou, que está previsto que esté plenamente operativo en el 2020. Por último, en 2003, comenzó el desarrollo del sistema de posicionamiento de la Unión Europea denominado Galileo, con un primer lanzamiento en el 2011. Actualmente cuenta con 12 satélites en activo (y 2 en pruebas) y está previsto el lanzamiento simultáneo de otros cuatro el próximo 17 de noviembre. De esta forma, habría 18 satélites en órbita y el servicio inicial del sistema de posicionamiento Galileo podría comenzar a finales de 2016. Se espera que esté totalmente operativo en el año 2020. Hay que decir que también existen otros sistemas, a nivel regional, complementarios a los ya comentados, en India y Japón.

Como se puede comprobar, los sistemas de posicionamiento global están plenamente extendidos y son ampliamente utilizados tanto a nivel militar y comercial (transporte de personas y mercancías, agricultura de precisión, topografía, estudios del medio ambiente, operaciones de rescate…) como a nivel personal (casi todo el mundo tiene un móvil con GPS disponible, aunque otra cosa es que siempre se les acabe la batería en el momento más inoportuno).

Respecto a la precisión obtenida con los equipos de geolocalización actuales, es del orden de unos pocos metros (e incluso algo mejor con el sistema Galileo) y se puede llegar a precisión centimétrica usando dispositivos multifrecuencia y aplicando correcciones diferenciales.

utilidad-de-la-geolocalizacion

Uno de los problemas de estos sistemas es que no funcionan correctamente en interiores ya que la señal de los satélites no se puede recibir bien dentro de los edificios (aunque ya existen equipos de alta sensibilidad que reducen este problema y otros dispositivos llamados pseudolites, que actúan simulando la señal GPS en interiores). Y como ya no nos basta con conocer nuestra posición exacta en exteriores, ahora surge la necesidad de conocer el posicionamiento también en los interiores de grandes edificios e infraestructuras (aeropuertos, edificios administrativos, centros comerciales…).

Por tanto, han aparecido sistemas de posicionamiento en interiores (IPS) que permiten la localización dentro de espacios cerrados. A diferencia de los sistemas de posicionamiento globales, en este caso existen muchas tecnologías diferentes que además no suelen ser compatibles entre sí, lo que dificulta su difusión y adopción por parte del público general. Ya existen soluciones muy fiables y precisas en entornos empresariales, pero estos desarrollos son específicos y difícilmente trasladables a un uso genérico de localización de personas en interiores. En este tipo de contexto profesional, CARTIF ha realizado varios proyectos de posicionamiento en interiores para movimiento autónomo de mercancías y robótica de servicios. No existe en la actualidad un sistema estándar de posicionamiento en interiores pero hay muchas tecnologías compitiendo por un lugar predominante.

Las tecnologías utilizadas se pueden diferenciar en la necesidad o no de una infraestructura de comunicaciones. Aquellas que no necesitan de infraestructura existente se suelen basar en el uso de sensores habitualmente disponibles en un teléfono móvil inteligente (smartphone): variaciones del campo magnético en el interior del edificio que son detectadas por los magnetómetros, medición de los movimientos realizados en el recinto empleando los acelerómetros o identificando ciertos elementos característicos (como códigos QR) usando la cámara. En todos estos casos la precisión alcanzada no es muy alta pero podría ser de utilidad en ciertas aplicaciones sencillas como orientarse en un gran edificio.

Los sistemas de posicionamiento en interiores que usan infraestructura de comunicaciones emplean casi todas las tecnologías disponibles de este tipo para obtener la localización: WiFi, Bluetooth, RFID, infrarrojos, NFC, ZigBee, banda ultra ancha, luz visible, antenas de telefonía (2G/3G/4G), ultrasonidos…

geolocalizacion-smartphone

Con estos sistemas se determina la posición, normalmente por triangulación, calculando la distancia a los dispositivos fijos de referencia (usando la intensidad de la señal recibida, señales codificadas o por medición directa de dicha distancia). Así, se puede llegar a alcanzar mayores precisiones que en los tres casos anteriores. También existen nuevos desarrollos que combinan varias de las tecnologías mencionadas para conseguir mejorar la precisión y disponibilidad del posicionamiento.

Aunque, como se ha dicho no hay un estándar, se está extendiendo el uso de nodos basados en bluetooth de bajo consumo (BLE). Ejemplos de estos sistemas son el Eddystone de Google y los iBeacons de Apple.

Lógicamente, como en el caso de posicionamiento en exteriores, además de conocer la posición hay que disponer del correspondiente mapa del entorno que permita la navegación. Existen también otros sistemas, llamados SLAM, que van generando mapas del entorno (que puede ser conocido o no) según se van moviendo, muy usados en robots y vehículos autónomos. Un ejemplo reciente es el proyecto Tango (también de Google) que permite generar modelos 3D del entorno utilizando dispositivos móviles (smartphones o tablets).

Como se ha visto, cada vez estamos más cerca de poder estar localizados en cualquier lugar, lo cual puede resultar muy útil pero también nos puede hacer excesivamente dependientes de estos sistema (cada vez se pregunta menos en la calle cómo llegar a un sitio) a la vez que se incrementan los consabidos problemas de privacidad asociados a estos temas. Así que, aunque gracias a estos avances cada vez sea menos necesario el sentido de la orientación, lo que no hay que perder nunca es el sentido común.

Compra pública sostenible y datos abiertos

Compra pública sostenible y datos abiertos

La Iniciativa Internacional de Compra Pública Sostenible (SPPI, Sustainable Public Procurement Iniciative) es el instrumento político fundamental a día de hoy para promover el desarrollo sostenible y avanzar hacia una economía verde que fomente el desarrollo de productos y servicios sostenibles, maximizando los beneficios sociales y medioambientales. Las Directivas de la Comisión Europea obligan a las administraciones públicas a basar sus decisiones de adjudicación en el principio de la oferta económicamente más ventajosa (MEAT), centrándose en los costes del ciclo de vida y en los productos social y medioambientalmente sostenibles. Los Estados miembros deben fomentar en general el análisis del coste de todo el ciclo de vida como una práctica habitual en las inversiones a largo plazo.

La inversión en infraestructuras de transporte tiene un impacto positivo en el crecimiento económico. Crean riqueza y puestos de trabajo, pero ha de hacerse de forma que se maximicen esos impactos positivos y se minimice el impacto negativo en el medioambiente. Concretamente, el transporte por ferrocarril supone el 0,2% de las emisiones globales en la UE27. De esas emisiones, la infraestructura supone el 28%, y la mitad se producen durante su construcción. Esto ilustra el alto impacto ambiental de estas actividades.

En el artículo del blog de IODC “Luchando contra el cambio climático: el reto de datos definitivo”, se defiende que los datos son más poderosos cuando están disponibles como datos abiertos o públicos y que los científicos no sólo utilizan los datos para monitorizar el cambio climático, sino también para ayudar a aportar soluciones, combinando la ciencia de los datos con la ciencia del clima.

En línea con estas ideas, hay una iniciativa, parcialmente financiada por el Programa LIFE+ de la Comisión Europea, que combina el análisis de ciclo de vida (ACV) con técnicas de análisis inteligente de datos, con el fin de mejorar la sostenibilidad de los procesos de construcción de infraestructuras ferroviarias, considerando aspectos ambientales, económicos y sociales. El objetivo es reducir las huellas de carbono e hídrica de los proyectos de construcción de infraestructuras ferroviarias desde las etapas iniciales, i.e. el diseño y la planificación.

En una reciente conferencia, Martina Werner, miembro del Parlamento Europeo y del Comité ITRE sobre Industria, Investigación y Energía, defendía que muchos fabricantes se limitan a competir en base al precio, mientras que un desarrollo riguroso de las directivas de compra, y particularmente del principio MEAT, puede proporcionar a los proveedores una ventaja competitiva. En la actualidad se tienen en cuenta numerosos factores durante el proceso de compra, incluyendo la fiabilidad de la cadena de suministro, los servicios, los costes de mantenimiento, factores medioambientales y criterios de responsabilidad social corporativa.

A partir del impacto medioambiental y social de las tareas más importantes, una herramienta de acceso abierto proporciona los valores de las huellas y determinados indicadores sociales y medioambientales como datos abiertos, para promover la incorporación de criterios medioambientales en los proyectos de construcción. Esta herramienta está disponible online, con toda la información relacionada con ACV y ACV Social (SLCA) y pretende difundir el desarrollo sostenible y allanar el camino para que administraciones públicas y licitadores utilicen este tipo de herramientas.

Cinco falsos mitos sobre las cámaras termográficas

Cinco falsos mitos sobre las cámaras termográficas

Todo el mundo sabe lo que es una cámara termográfica. Películas como “Depredador”, la retransmisión de la fórmula 1, etc. han ayudado a que la gente conozca esta tecnología. En CARTIF llevamos muchos años empleándola para la inspección de construcciones e infraestructuras.

Su funcionamiento se basa en que todo objeto con una temperatura superior al cero absoluto emite radiación infrarroja, la cual no es visible por el ojo humano. Esta radiación depende de la temperatura del objeto, por lo que conociendo dicha radiación se puede obtener la temperatura.

Una cámara termográfica registra no solo esta radiación (radiación emitida), sino también la reflejada y la transmitida por los objetos. Además, aparte de la temperatura del objeto entran en juego otros factores, por lo que la obtención de la temperatura no es inmediata.

Las cámaras termográficas traen un software que devuelve la temperatura del objeto inspeccionado de forma transparente al usuario. El problema viene cuando se confía demasiado en este software y no se sabe muy bien que se está haciendo. Un operador no experimentado puede cometer ciertos errores. La idea de este post es aclarar ciertos conceptos erróneos que tiene el público general sobre las cámaras termográficas:

1.    Las cámaras termográficas son capaces de ver dentro de los objetos. FALSO.
La cámara solo ve la superficie del objeto, y a partir de ahí, calcula la temperatura.

2.    Cualquier tipo de material puede ser medido con cámaras termográficas. FALSO.
La temperatura de un cuerpo viene dada por la radiación emitida, pero la cámara también ve la radiación reflejada y transmitida. La mayoría de los materiales son opacos a la radiación infrarroja, por lo que la componente transmitida puede ser ignorada. Pero hay materiales con baja emisividad que reflejan mucha radiación, por lo que son difíciles de medir con una cámara termográfica.

3.    Las cámaras termográficas no pueden usarse de día. FALSO.
Las cámaras termográficas solo son sensibles al infrarrojo (no ven la luz visible tal como lo hacemos los seres humanos). De noche es más sencillo controlar la radiación reflejada, por lo que dependiendo de lo que se quiera inspeccionar, es aconsejable hacerlo por la noche.

4.    No es necesario conocer la emisividad del objeto inspeccionado. FALSO.
Sin duda, este es el parámetro más importante que debe conocer la cámara para calcular correctamente la temperatura.

5.    Esta tecnología es muy cara. FALSO.
Hace años era así. El avance tecnológico ha supuesto que existan cámaras termográficas a precios muy competitivos. Incluso FLIR comercializa un accesorio para convertir el móvil en una cámara termográfica.

Ahora que ya sabemos más sobre las cámaras termográficas, es el momento de saber hasta qué punto son innovadoras sus aplicaciones. Estos son algunos ejemplos:

1.    Lentes de contacto con visión infrarroja
Un grupo de ingenieros de la Universidad de Michigan está desarrollando lentes de contacto con visión infrarroja, basándose en el grafeno.

2.    Detección de motores en bicicletas
Este año, la UCI detectó un motor eléctrico en la bicicleta de Femke Van den Driessche durante el campeonato del mundo de ciclocross sub 23.  Es el primer caso de dopaje tecnológico en la historia del ciclismo.

3.    Diagnóstico de traumatología
Según los resultados de un estudio recientemente publicado en el Journal of Medical Imaging and Health Informatics, las cámaras termográficas de alta resolución pueden ser buenas herramientas de apoyo para proporcionar a los médicos información adicional para identificar correctamente la presencia o no de una lesión en una determinada zona corporal.

El estudio ha sido desarrollado por un grupo de investigación de la Unidad de Termografía de la Facultad de la Actividad Física y el Deporte (INEF) de la Universidad Politécnica de Madrid (UPM) en colaboración con la clínica CEMTRO.

4.    Control de plagas
Es posible utilizar termografía para la detección de plagas, gracias a la correlación entre las humedades y la presencia de insectos. También se ha visto que ciertas anomalías que aparecen en las imágenes termográficas pueden deberse a ciertos insectos como las termitas.

5.    Uso de la termografía para la prevención del cáncer de mama
Se basa en analizar cambios de temperatura detectados con termografía que podrían ser debidos a vascularizaciones, infecciones, inflamaciones, etc. Un tumor necesita crear vasos sanguíneos para desarrollarse. Este proceso, llamado angiogénesis, produce calor y es cuando una termografía puede detectarlo, mucho antes de que se desarrolle el propio tumor.

Sin duda, la termografía es una tecnología con grandes posibilidades. En próximas entregas, os contaremos lo que hacemos con ella en algunos de nuestros proyectos.

Llevando el paso a las estructuras

Llevando el paso a las estructuras

A pesar del título, este blog no es sobre bailes de salón, pero si sobre algo relacionado con el movimiento y cómo llevar el paso a tu pareja de baile.

¿Alguna vez has notado como una pasarela oscila cuando pasas por ella, o cómo la grada del estadio vibra cuando saltas y animas a tu equipo favorito? Si no lo has experimentado, te recomiendo que veas estos vídeos: Millenium Bridge London, Commerzbank-Arena Frankfurt o Volga Bridge Volgograd.

¿Por qué estas estructuras oscilan si están construidas con materiales tan resistentes y rígidos como el hormigón y el acero? En general, todas las estructuras vibran bajo la acción de personas, vehículos o ráfagas de viento, pero unas estructuras lo hacen de forma más perceptible que otras.

Las estructuras desarrollan oscilaciones de mayor o menor amplitud dependiendo de sus parámetros de rigidez, masa y amortiguamiento. Como norma general, a mayor esbeltez de la estructura, más susceptible es de desarrollar oscilaciones apreciables y en algún caso molestas y peligrosas para las personas.

Experimentando con la frecuencia de resonancia (www.exploratium.edu)

La mejor forma de entender estos conceptos es experimentando. Si estás en casa, te animo a que vayas a la cocina y que cojas unos espaguetis y unas fresas. Si no tienes fresas, podrías usar pequeñas bolas hechas de plastilina. Una vez tengas estos elementos, sujeta firmemente por un extremo uno de los espaguetis y clava una fresa/bola en el otro. Ahora realiza pequeños movimientos hacia adelante y hacia atrás con tu mano.

Cambiando la frecuencia del movimiento verás como a una de estas frecuencias el espagueti desarrolla grandes oscilaciones llegando a romperse. Esta es la “frecuencia de resonancia” del conjunto espagueti-fresa y está definida por la flexibilidad o “rigidez” del espagueti y el peso o “masa” de la fresa. Si ahora pruebas a experimentar usando dos espaguetis en vez de uno y posteriormente cambias la fresa por una de mayor o menor peso verás cómo la frecuencia de resonancia cambia, siendo menor a menor rigidez y/o mayor masa tengas.

En cuanto al amortiguamiento, esta propiedad depende del tipo de material usado, y básicamente lo que hace es oponerse al movimiento, o dicho de otro modo, a mayor amortiguamiento, las amplitudes de la oscilación a la frecuencia de resonancia serán menores, y menor será el tiempo de la vibración una vez que cesa la fuente de la excitación. Esto lo podemos comprobar usando un trozo de alambre de acero en vez del espagueti. Veremos que el espagueti tiene mayor amortiguamiento que el acero pero, por el contrario, es más frágil.

Volviendo a las estructuras civiles, éstas están diseñadas y construidas con distintos materiales y geometrías que las hace tener diferentes valores de masa, rigidez y amortiguamiento, y por tanto distintas frecuencias de resonancia. ¿Qué pasaría si una pasarela peatonal tiene una frecuencia de resonancia cercana o igual a la frecuencia de paso de personas circulando sobre ella? Por lo visto en el experimento, las estructuras de la pasarela desarrollaría oscilaciones de amplitud apreciable, siendo mayores o menores dependiendo de su amortiguamiento. Si este fuera muy bajo, las oscilaciones serían tan grandes que tendrían que cerrar al tráfico la estructura para su modificación. Esto fue lo que ocurrió al tercer día de la inauguración del Millenium Bridge de Londres.

Instalación temporal de amortiguadores de masa pasivos y activos en la Pasarela del Museo de la Ciencia de Valladolid

Básicamente, hay dos soluciones para evitar que una estructura vibre de forma apreciable. La primera consiste en modificar su frecuencia de resonancia cambiando su rigidez y/o masa, y la segunda se basa en añadir amortiguamiento a la estructura. La primera solución es en general cara y modificaría de forma significativa el diseño final de la estructura haciéndola menos esbelta lo cual no suele ser del agrado del diseñador/arquitecto. La segunda solución, más económica y discreta, consistiría en añadir elementos amortiguadores en distintas partes de la estructura tal que aumenten su amortiguamiento global. Algunos ejemplos de estos elementos son amortiguadores hidráulicos similares a los de los coches o elementos viscoelásticos. Para su correcto funcionamiento, estos dispositivos necesitan estar unidos a dos puntos de la estructura con movimiento relativo.

Otro sistema que añade amortiguamiento y en el que CARTIF lleva años trabajando, son los amortiguadores de masa o TMD (Tuned Mass Damper), los cuales consisten en masas que son acopladas a las estructuras mediante muelles o cables metálicos (tipo pendular) y elementos amortiguadores de naturaleza pasiva como amortiguadores hidráulicos e imanes de neodimio, o de naturaleza activa como amortiguadores de líquidos magnetorreológicos. Este sistema tiene la ventaja de necesitar unirse a la estructura solo por un punto, siendo en general, el de mayor amplitud de oscilación.  Su principio de funcionamiento consiste en amortiguar la estructura por medio de la transferencia de energía cinética entre la estructura y el TMD. Un ejemplo de estos sistemas es el instalado recientemente en el segundo edificio masa alto del mundo, el Shanghái Tower, donde un TMD de tipo pendular de 1000 toneladas reduce drásticamente las oscilaciones del rascacielos que experimenta como consecuencia de la acción del viento.

Por tanto, aunque las estructuras vibren, mediante el uso de sistemas de amortiguación como los TMD, siempre es posible “llevarlas el paso” para que oscilen suavemente.

Estrategias para reducir las emisiones en autobuses urbanos

Estrategias para reducir las emisiones en autobuses urbanos

Sin duda, la búsqueda de soluciones sin emisiones en el transporte de pasajeros es uno de los puntos donde más esfuerzos se están haciendo. La electrificación del autobús urbano es uno de los puntos donde más se está trabajando, especialmente en torno a dos estrategias:

Vehículos con una gran capacidad de baterías: aseguran autonomía y recarga mientras están parados. El principal problema son las baterías:  alto coste, peso y volumen para el servicio.

Vehículos con carga rápida/ultrarrápida en las paradas de inicio/final de línea: Necesitan infraestructura de recarga con alta potencia en algunas paradas. El autobús podrá llevar un motor que permitirá asegurar el servicio.

Sobre esta segunda solución está trabajando un equipo de investigadores de CARTIF en el marco del proyecto REMOURBAN. En concreto, ya han comenzado los ensayos para integrar varios autobuses en una línea regular.

El objetivo principal es demostrar la viabilidad de una flota de autobuses que combinen un excelente rendimiento con un bajo consumo de energía. Esto se logrará mediante la introducción de autobuses híbridos con un plug-in de una tecnología nueva, lo que hace que sea posible electrificar una parte importante de las líneas de autobuses urbanos.

La idea es que los ensayos del proyecto consigan:

• Una nueva tecnología plug-in para autobuses híbridos. El vehículo completo será optimizado para garantizar un alto nivel de capacidad de conducción, rendimiento, durabilidad y seguridad

Un servicio de carga rápida para estos autobuses. Una solución fiable y eficiente para la carga es de crucial importancia para el futuro uso de la tecnología plug-in. El servicio debe ser eficaz teniendo en cuenta la ubicación del sistema de carga, así como la seguridad, la eficiencia del tiempo, del medio ambiente y las condiciones espaciales.

Reducir las emisiones de CO2. La reducción del consumo de combustible, en combinación con la electricidad generada a partir de fuentes renovables, reducirá las emisiones de CO2 en comparación con los vehículos diésel estándar

Reducir las emisiones de sustancias peligrosas. Una reducción sustancial del consumo de diésel, combinado con las condiciones de conducción más favorables, se traducirá en una reducción en las emisiones de escape medias de NOx, PM, HC y CO

Menos ruido. Con un funcionamiento eléctrico se reducirá radicalmente el ruido de los autobuses, especialmente en las zonas sensibles.

Zonas de emisión cero. En algunas áreas seleccionadas los autobuses funcionarán solo con electricidad

Carreteras con suelo radiante

Carreteras con suelo radiante

Todos conocemos el gran esfuerzo que realizan las autoridades para reducir los accidentes. Pero, a pesar de ello, existen factores incontrolables como la formación de hielo sobre la superficie de la calzada.

Para afrontar este problema cada comunidad autónoma emplea su propio protocolo de vialidad invernal, que consiste en definir las zonas y épocas de mayor riesgo, coordinando los distintos medios para combatir el hielo con toneladas de fundentes (sal, salmuera, etc.). La principal consecuencia de este procedimiento es su considerable impacto medioambiental.

¿Qué pasaría si propusiéramos calentar las carreteras con suelo radiante? La respuesta sería unánime: ¡es inviable, el coste es altísimo! Pero si dijéramos: se podrían salvar muchas vidas y podríamos reducir el uso de fundentes, la cosa cambiaría. Por lo tanto, el reto que tenemos por delante es definir soluciones de calentamiento puntuales en las zonas más peligrosas de las carreteras, donde la posibilidad de salvar vidas es mayor, y en las zonas con un ecosistema más sensible, donde los productos fundentes son más dañinos.

Calentar la calzada mediante suelo radiante no es una solución nueva.  Ya existen soluciones similares aplicadas en grandes puentes y aeropuertos, cuyo elevado coste no es un impedimento para su implantación. En general, estas soluciones son muy caras, tanto en su fase de desarrollo como en su fase de funcionamiento. Su objetivo es derretir el hielo a base de emplear grandes cantidades de energía.

Por lo tanto, el siguiente reto que tenemos por delante es conseguir un sistema más económico y con una eficiencia energética mayor. Esto sólo se podrá alcanzar si se aborda el problema desde distintos frentes.

Para empezar el punto clave es evitar la formación del hielo, reduciendo así drásticamente la cantidad de energía necesaria para derretirlo. Pero ¿cómo? Desarrollando algoritmos inteligentes predictivos que nos indiquen la probabilidad de formación de hielo a corto plazo. Estas técnicas deberán basarse en un buen sistema de monitorización que permita conocer las condiciones climatológicas a pie de carretera, así como las condiciones de temperatura en el interior del asfalto, generalmente mediante sensores embebidos en la mezcla bituminosa. Esta monitorización se tiene que centrar en los parámetros reales que influyan en la formación del hielo sobre la superficie de la calzada.

Otro punto importante en el que hay que profundizar es en las mezclas bituminosas empleadas en la calzada, tanto desde el punto de vista del ligante como de la mezcla.

Se buscan ligantes que minimicen el impacto de las bajas temperaturas en las prestaciones de las mezclas, garantizando así un buen comportamiento, y que a su vez tengan propiedades fundentes. Para ello se emplean betunes modificados con polímeros y betunes mejorados con caucho. Parámetros de la mezcla como los huecos serán otro factor a tener en cuenta en el diseño de estas instalaciones.

El siguiente factor por decidir es la fuente de energía que tendrá que realizar el aporte calorífico al fluido de la instalación. Comenzar a calentar el asfalto antes de que se produzca la formación del hielo implica que los requisitos energéticos sean menores que los necesarios para derretir el hielo. Esto permite que la energía geotérmica sea una firme candidata.

Por último, hay que definir las características y distribución de los tubos, el dimensionamiento de la instalación, los espesores de las mezclas y otros muchos factores que se deberán incluir en la fase de redacción del proyecto constructivo de una carretera.

Todo ello bajo las fuertes restricciones impuestas por los factores constructivos y los requisitos de confort en la conducción.

En CARTIF trabajamos en estas líneas de investigación con el fin de alcanzar este objetivo. En colaboración con Eiffage, Euroestudios, Cepsa y la Universidad de Oviedo, hasta el momento los resultados obtenidos son muy esperanzadores.