Con los sistemas de posicionamiento global ha ocurrido un fenómeno similar a lo que ha pasado con los teléfonos móviles: en unos años hemos pasado de no que no existieran a considerarlos imprescindibles. Lo cierto es que, de hecho, la geolocalización es una de esas tecnologías que ha propiciado el desarrollo de multitud de aplicaciones y en muchos ámbitos ya no se concibe poder trabajar sin el uso del comúnmente llamado GPS.
Este tipo de sistemas de posicionamiento se basa en recibir la señal de tres o más satélites por medio de la trilateración inversa: determinando la distancia a cada uno de los satélites se obtiene la posición en coordenadas absolutas (normalmente WGS84).
Los sistemas de posicionamiento global basados en satélites tienen su origen en los años 60, en el sistema norteamericano TRANSIT. Con este sistema se podía conseguir fijar la posición una vez cada hora (en el mejor de los casos) con una precisión de unos 400 metros. A este sistema le siguió el Timation y en el año 1973 comenzó el proyecto Navstar (ambos norteamericanos). El primer satélite de este proyecto se lanzó en febrero de 1978 hasta completar la constelación actual, a la que se declaró con plena capacidad operacional en abril de 1995. Este sistema Navstar-GPS es el origen del nombre genérico GPS que solemos aplicar a todos los sistemas de navegación global. En 1982 la antigua Unión Soviética lanzó los primeros satélites de un sistema similar llamado GLONASS que comenzó a estar operativo en 1996. Por su parte, la República Popular China lanzó en el año 2000 el primer satélite de su sistema de navegación BeiDou, que está previsto que esté plenamente operativo en el 2020. Por último, en 2003, comenzó el desarrollo del sistema de posicionamiento de la Unión Europea denominado Galileo, con un primer lanzamiento en el 2011. Actualmente cuenta con 12 satélites en activo (y 2 en pruebas) y está previsto el lanzamiento simultáneo de otros cuatro el próximo 17 de noviembre. De esta forma, habría 18 satélites en órbita y el servicio inicial del sistema de posicionamiento Galileo podría comenzar a finales de 2016. Se espera que esté totalmente operativo en el año 2020. Hay que decir que también existen otros sistemas, a nivel regional, complementarios a los ya comentados, en India y Japón.
Como se puede comprobar, los sistemas de posicionamiento global están plenamente extendidos y son ampliamente utilizados tanto a nivel militar y comercial (transporte de personas y mercancías, agricultura de precisión, topografía, estudios del medio ambiente, operaciones de rescate…) como a nivel personal (casi todo el mundo tiene un móvil con GPS disponible, aunque otra cosa es que siempre se les acabe la batería en el momento más inoportuno).
Respecto a la precisión obtenida con los equipos de geolocalización actuales, es del orden de unos pocos metros (e incluso algo mejor con el sistema Galileo) y se puede llegar a precisión centimétrica usando dispositivos multifrecuencia y aplicando correcciones diferenciales.
Uno de los problemas de estos sistemas es que no funcionan correctamente en interiores ya que la señal de los satélites no se puede recibir bien dentro de los edificios (aunque ya existen equipos de alta sensibilidad que reducen este problema y otros dispositivos llamados pseudolites, que actúan simulando la señal GPS en interiores). Y como ya no nos basta con conocer nuestra posición exacta en exteriores, ahora surge la necesidad de conocer el posicionamiento también en los interiores de grandes edificios e infraestructuras (aeropuertos, edificios administrativos, centros comerciales…).
Por tanto, han aparecido sistemas de posicionamiento en interiores (IPS) que permiten la localización dentro de espacios cerrados. A diferencia de los sistemas de posicionamiento globales, en este caso existen muchas tecnologías diferentes que además no suelen ser compatibles entre sí, lo que dificulta su difusión y adopción por parte del público general. Ya existen soluciones muy fiables y precisas en entornos empresariales, pero estos desarrollos son específicos y difícilmente trasladables a un uso genérico de localización de personas en interiores. En este tipo de contexto profesional, CARTIF ha realizado varios proyectos de posicionamiento en interiores para movimiento autónomo de mercancías y robótica de servicios. No existe en la actualidad un sistema estándar de posicionamiento en interiores pero hay muchas tecnologías compitiendo por un lugar predominante.
Las tecnologías utilizadas se pueden diferenciar en la necesidad o no de una infraestructura de comunicaciones. Aquellas que no necesitan de infraestructura existente se suelen basar en el uso de sensores habitualmente disponibles en un teléfono móvil inteligente (smartphone): variaciones del campo magnético en el interior del edificio que son detectadas por los magnetómetros, medición de los movimientos realizados en el recinto empleando los acelerómetros o identificando ciertos elementos característicos (como códigos QR) usando la cámara. En todos estos casos la precisión alcanzada no es muy alta pero podría ser de utilidad en ciertas aplicaciones sencillas como orientarse en un gran edificio.
Los sistemas de posicionamiento en interiores que usan infraestructura de comunicaciones emplean casi todas las tecnologías disponibles de este tipo para obtener la localización: WiFi, Bluetooth, RFID, infrarrojos, NFC, ZigBee, banda ultra ancha, luz visible, antenas de telefonía (2G/3G/4G), ultrasonidos…
Con estos sistemas se determina la posición, normalmente por triangulación, calculando la distancia a los dispositivos fijos de referencia (usando la intensidad de la señal recibida, señales codificadas o por medición directa de dicha distancia). Así, se puede llegar a alcanzar mayores precisiones que en los tres casos anteriores. También existen nuevos desarrollos que combinan varias de las tecnologías mencionadas para conseguir mejorar la precisión y disponibilidad del posicionamiento.
Aunque, como se ha dicho no hay un estándar, se está extendiendo el uso de nodos basados en bluetooth de bajo consumo (BLE). Ejemplos de estos sistemas son el Eddystone de Google y los iBeacons de Apple.
Lógicamente, como en el caso de posicionamiento en exteriores, además de conocer la posición hay que disponer del correspondiente mapa del entorno que permita la navegación. Existen también otros sistemas, llamados SLAM, que van generando mapas del entorno (que puede ser conocido o no) según se van moviendo, muy usados en robots y vehículos autónomos. Un ejemplo reciente es el proyecto Tango (también de Google) que permite generar modelos 3D del entorno utilizando dispositivos móviles (smartphones o tablets).
Como se ha visto, cada vez estamos más cerca de poder estar localizados en cualquier lugar, lo cual puede resultar muy útil pero también nos puede hacer excesivamente dependientes de estos sistema (cada vez se pregunta menos en la calle cómo llegar a un sitio) a la vez que se incrementan los consabidos problemas de privacidad asociados a estos temas. Así que, aunque gracias a estos avances cada vez sea menos necesario el sentido de la orientación, lo que no hay que perder nunca es el sentido común.
8 de agosto de 2016. 07:00h a.m. La radio sintonizada de camino al trabajo. Comienzan los titulares del día. “El planeta Tierra entra hoy en déficit ecológico”, escucho. Vaya. Mala noticia. El Día de la Sobrecapacidad de la Tierra ha vuelto a adelantarse en 2016.
En este momento te estás preguntando varias cosas, seguro: 1º) si a esas horas de la mañana soy capaz de entender lo que dice la radio, 2º) ¿sobrecapacidad de la Tierra? ¿déficit ecológico? ¿qué significa eso?
La respuesta a la primera pregunta es sí. Si se habla de un tema ambiental o suena la canción del verano, mi atención se activa de inmediato. Y la respuesta a la segunda pregunta es más amplia y profunda, necesito extenderme un poco. Te cuento.
El término “déficit ambiental” o “déficit ecológico” es un concepto desarrollado originalmente por el centro de estudios New Economics Foundation (NEF) y se define como el marcador anual del momento en que el planeta Tierra comienza a vivir más alláde los recursos que tiene asignados para un año determinado. Aunque sólo es una estimación, este día se considera como la mejor aproximación científica a la medición de la brecha entre los recursos naturales que se generan anualmente y los que se destruyen, de manera que, una vez superado, todo lo que se consume hasta final de año es a cuenta de recursos que el planeta no puede producir y de contaminantes que la Tierra no es capaz de absorber (www.footprintnetwork.org).
La analogía más clara para entenderlo es con un estado de cuentas bancario. El déficit se produce cuando gastamos de nuestra cuenta de ahorros más que el dinero producido en intereses.
La Global Footprint Network es la organización que se encarga de calcularlo y anualmente compara los ingresos a la Tierra (que se consiguen incrementando del uso de las energías renovables, por ejemplo) con los gastos (provocados, entre otros, por un uso masivo del transporte privado y su combustible asociado). El resultado de la ecuación proporciona la fecha en la que la humanidad agota el presupuesto de la naturaleza para ese año y, a partir de ese momento, debemos mantenernos recurriendo a las reservas de recursos locales y acumulando más CO2 en la atmósfera, agravando el problema del cambio climático.
Así que no es un día festivo precisamente. En 1993, esta fecha se produjo el 21 de octubre, en el 2003 sucedió el 22 de septiembre y el año pasado llegó el 13 de agosto, lo que implica que, en 2016, el plazo se ha acortado casi una semana. Y dadas las tendencias actuales en nuestro consumo, asusta pensar que puede llegar el momento en que se agote todo el capital que existe en la cuenta de saldo de la Tierra ya que, si continuamos devastando su capital natural y su capacidad de renovar sus servicios ambientales, será cada vez más complicado balancearlo.
En CARTIF ya comenzamos este año con firmes propósitos ambientalesy nos parece vital seguir animando a las empresas a que apuesten por “ingresar” a la Tierra. No olvidemos que estamos en periodo de sobrecapacidad. Una de las ayudas más atractivas para ello es la convocatoria de proyectos CLIMA que lanza anualmente el MAGRAMA. Es la convocatoria óptima para las empresas que necesiten recibir un último empujón para la transformación de sus actividades a otras bajas en carbono, ya que el MAGRAMA les «compra» las emisiones de CO2 equivalente que dejan de emitir en su proceso (gasto a la Tierra evitado), actualizando el precio de la tonelada cada año.
Por lo tanto, si optar a un cambio medioambientalmente más favorable resulta atractivo desde el punto de vista económico y, además, contribuye a sumar a la “hucha” de nuestro planeta, actividades como cambiar tus calderas de combustible fósil por otras alimentadas por biomasa, transformar tu flota a vehículos eléctricos o aprovechar el calor residual de tu proceso, pueden marcar la diferencia para el futuro.
¿Te animas a sacar al banquero ambiental que llevas dentro?
El Aneurisma de Aorta Abdominal (AAA) ha sido reconocido como un importante problema de salud en la última década. Las estadísticas asociadas con esta patología son preocupantes y, como se registra en la mayoría de los estudios encontrados en la literatura científica, se prevé que su incidencia se incremente en los próximos años debido fundamentalmente al aumento en la expectativa de vida de la población. La ruptura de los aneurismas de aorta abdominal representa un evento clínico muy importante debido a su alta tasa de mortalidad.
Como indicaba nuestro compañero Félix Nieto en su post anterior, los indicadores empleados actualmente para decidir el tratamiento a pacientes con aneurisma, son el diámetro máximo transversal y la tasa de crecimiento, pero, en algunos casos, pueden ser considerados insuficientes, pues no tienen una base teórica físicamente fundamentada. Debido a esta limitación, en años recientes las investigaciones han estado básicamente dirigidas a mejorar la comprensión sobre los fenómenos asociados al surgimiento y posterior evolución de esta patología, con el objetivo de definir si otras variables podrían ser predictivas de ruptura.
Una de las mayores restricciones en la obtención de resultados precisos en la modelización de patologías vasculares, es el uso de un dominio computacional realista, lo cual cada día se acerca más a lo posible, debido a los avances tecnológicos en el equipamiento para la realización de tomografía axial computadorizada (TAC), de resonancia magnética (IRM) y al desarrollo de técnicas CAD, lo que ha permitido avanzar significativamente en la extracción detallada, in vivo, de estructuras anatómicas.
En este sentido, en CARTIF estamos trabajando en la conversión automatizada del conjunto de imágenes 2D obtenido mediante TAC en un modelo 3D realista y que constituya el dominio geométrico de integración en la simulación de AAA, mediante técnicas por elementos finitos.
La actividad relacionada con el tratamiento de imágenes médicas de AAA ha sido la base fundamental para uno de nuestros últimos proyectos: el estudio de la influencia de parámetros geométricos sobre el índice de ruptura de los AAA, enfocado particularmente al ángulo de las iliacas.
En una primera fase se han realizado simulaciones dinámicas de fluidos y estructurales para calcular el Índice Potencial de Ruptura (IPR) de varios casos de pacientes afectados por AAA
Los resultados obtenidos demuestran que los valores del ángulo de las iliacas (α) están relacionados con otros parámetros geométricos como la excentricidad del AAA y que en conjunto pueden caracterizar el IPR.
El siguiente paso será confirmar esta tendencia sobre una mayor base de datos de pacientes que presentan AAA, siendo imprescindible, como hasta ahora, la buena colaboración que tenemos con el Hospital Clínico Universitario de Valladolid.
Estamos convencidos de que los resultados de esta línea de investigación podrían ser una herramienta muy eficaz para el cirujano a la hora de tomar la decisión de someter o no el paciente al procedimiento quirúrgico de reparación. Para confirmarlo, seguiremos trabajando.
Seguro que alguna vez, sobre todo en los pueblos, hemos escuchado a algún agricultor pronunciar una frase parecida a ésta: “Este año el trigo está creciendo mucho debido a las lluvias; lástima que van a salir muchas malas hierbas, tendré que echar herbicidas”. Ante este comentario se podría abrir una larga discusión.
Está claro que las malas hierbas son un problema, pero existen otras formaspara que no invadan los cultivos, sin necesidad de recurrir a los herbicidas. No hay que dejarlas crecer de forma invasiva pero tampoco es bueno erradicarlas por completo ya que tienen otros efectos beneficiosos: ayudan a controlar las plagas y favorecen la presencia de polinizadores en el campo.
Entonces ¿en qué quedamos? ¿Hay que dejarlas o no? Pues existen otras soluciones, como dejar márgenes entre cultivos e introducir plantas aromáticas o árboles frutales que eviten la aparición de las malas hierbas en esos márgenes, al igual que antiguamente se intercalaban campos de cereal con huertos e incluso con frutales. Es lo que se llama crear coberturas vegetales.
¿En qué consisten las coberturas o cubiertas vegetales?
Se trata de sembrar entre las calles o líneas de los cultivos alguna especie cultivable, o bien dejar crecer la vegetación natural de forma espontánea. Las coberturas vegetales se utilizan como estrategia para el manejo del suelo, ya que reducen el riesgo de erosión, además de aumentar la biodiversidad de los enemigos naturales de las plagas habituales de los cultivos.
Las coberturas compiten con las malezas por espacio, luz y nutrientes y por lo tanto ayudan a reducir los costes de control de malas hierbas, suponiendo esto una ventaja para el agricultor. Otros cultivos de cobertura producen sustancias alelopáticas (compuestos bioquímicos que influyen en el crecimiento, supervivencia o reproducción de otros organismos) que inhiben el crecimiento de ciertas malas hierbas y, en general, las coberturas vegetales, al igual que los setos, son una reserva donde viven organismos beneficiosos que pueden pasar al cultivo en busca de sus presas (las plagas).
¿Se utiliza mucho las coberturas vegetales?
Pues sí. Sobre todo, en agricultura ecológica. La Agricultura Ecológica, regulada por el REGLAMENTO (CE) Nº 834/2007 DEL CONSEJO de 28 de junio de 2007, prohíbe el uso de plaguicidas y fertilizantes de origen químico de síntesis. Por tanto, en la producción ecológica se desarrollan diferentes estrategias de manejo para cumplir con la normativa. Una de ellas es el incremento de la diversidad dentro y alrededor del cultivo con diferentes plantas que estimulen la variedad de organismos beneficiosos. La técnica de diversificación más importante es el empleo de coberturas vegetales entre las líneas de los cultivos.
El tema de las coberturas vegetales es muy discutible por ambas partes, sus firmes defensores y aquellos que nunca la llevarían a la práctica. Está claro que al introducir un cultivo nuevo entre líneas de otro cultivo principal, por ejemplo un viñedo, se producirá una competencia con las viñas, y a esto puede unirse una pérdida de producción, pero también puede resultar muy interesante conseguir un producto de mayor calidad debido a mejoras en el suelo, o puede aparecer una flora microbiana diferente que haga que el vino que se produzca con esas uvas tenga unas características sensoriales especiales.
Algunas veces pasan décadas y décadas y se evoluciona en muchos temas pero en otros casos se tiende a hacer las cosas como en el pasado, como en el caso de introducir coberturas entre líneas de cultivo, aunque siempre se pueden añadir nuevas técnicas fruto de la I+D. En CARTIF trabajamos tanto en el campo de la viticultura y enología donde hemos hecho experiencias de siembra de coberturas vegetales de plantas aromáticas entre líneas de viñedo, como en el desarrollo de técnicas de bajo impacto ambiental y técnicas de agricultura ecológica.
En anteriores posts, el mantenimiento predictivo fue mencionado como uno de los principales habilitadores digitales de la Industria 4.0. El mantenimiento, ligado a la revolución industrial, sin embargo, nos ha acompañado en nuestra evolución como seres humanos.
Desde la prehistoria, nuestros antepasados han construido herramientas que sufrían desgaste y que, a veces, se rompían sin previo aviso. La solución era simple: tallar una nueva herramienta. Al crear mecanismos más elaborados (e.g. rueda de madera), la alternativa natural al desecho se convirtió en la reparación a cargo del artesano. Los telares mecánicos de la Primera Revolución Industrial eran aún más complicados de reparar por lo que surgieron oficios específicos que evolucionaron hacia los operarios de mantenimiento actuales. Durante esta evolución, el desgaste y las roturas de piezas sin previo aviso continuaba siendo parte del día a día de las fábricas.
¿Por qué se ha roto de repente este engranaje que ayer funcionaba perfectamente? El cerebro humano puede asimilar conceptos como la linealidad de acontecimientos (estaciones, noche y día, …) o incluso eventos que suceden a intervalos más o menos regulares. Sin embargo, estos imprevistos desquiciaban a los operarios. ¿Cómo podemos asegurarnos de que ese engranaje no vuelva a romperse? La respuesta era biológicamente predecible: “… pararemos la máquina cada 2 días (por ejemplo) y revisaremos el desgaste del engranaje…”
Esta tradición ha derivado en la práctica habitual del mantenimiento que se aplica en la industria y en productos de consumo como, por ejemplo, nuestros automóviles. Nuestro concesionario nos obliga a realizar revisiones periódicas (e.g. cada 10.000 km) para comprobar elementos críticos (frenos, correa de distribución, …) y cambiar piezas con un mayor desgaste (ruedas, filtros …). Esto se denomina mantenimiento preventivo, y se aplica en fábricas u otro tipo de instalaciones (e.g. aerogeneradores) para evitar averías imprevistas. Sin embargo, estas averías no se pueden eliminar (son eso, imprevistas) y es necesaria su reparación. Hablamos de mantenimiento correctivo. El que nadie quiere hacer.
¿Cómo ponerle freno a toda esta catarata de averías inesperadas, gastos de reparación y revisiones innecesarias? Una de las disciplinas en las que más ha trabajado CARTIF desde sus inicios es el mantenimiento predictivo que persigue mitigar (no sería realista asumir que vamos a eliminar lo imprevisto) las averías inesperadas y reducir las revisiones periódicas de las máquinas. De nuevo el mantenimiento predictivo puede explicarse como una respuesta biológica previsible al problema de averías inesperadas. Se basa en la revisión periódica usando señales características del entorno o de la propia máquina que nos puedan indicar de forma anticipada un funcionamiento anómalo. La ventaja de este mantenimiento es que no requiere parar la máquina como en el preventivo. Por ejemplo, un motor eléctrico puede tener un consumo normal cuando funciona correctamente, pero este consumo aumentará si algún elemento del motor sufre algún desgaste excesivo. Vigilando el consumo de forma adecuada podemos entonces detectar averías incipientes.
Siguiendo con el ejemplo del motor eléctrico, ¿cuál debe ser la variación mínima de consumo a tener en cuenta para decidir que debemos parar el motor eléctrico y efectuar una reparación? Como en muchas decisiones de la vida, es necesario aplicar un criterio de coste/beneficio, valorando cuánto podemos perder si no reparamos dicho motor frente a cuánto va a costar la reparación. ¿Cómo reducir la incertidumbre en esta decisión? La respuesta es una predicción fiable de la evolución de la avería. Esta predicción estará influenciada por muchísimos factores, algunos de ellos desconocidos (es algo aleatorio como hemos dicho). Sin embargo, los dos principales a tener en cuenta en la predicción son el tipo de evolución de la avería (e.g. la evolución de la avería en una pieza frágil será muy diferente a una pieza más o menos elástica) y el régimen de trabajo al que se verá sometida la máquina (un ventilador encendido las 24 horas del día, frente al motor de un ascensor que arranca y para cada vez que alguien pulsa el botón en un piso). Una predicción fiable permitirá al responsable de mantenimiento elegir, junto con la previsión de carga productiva de la instalación, la opción más beneficiosa, que en muchos casos suele ser la planificación de la intervención de mantenimiento sin que afecte a la producción.
Otro efecto beneficioso del mantenimiento predictivo es que un tratamiento adecuado de las señales medidas ofrece indicios de qué elemento está fallando. Esto se denomina el diagnóstico de la avería y contribuye a reducir la incertidumbre en la acción de mantenimiento más adecuada. Un ejemplo es la medición de vibraciones que permiten diferenciar una avería de un motor eléctrico que tiene un exceso de vibración por un cortocircuito incipiente o debido a un rodamiento dañado. Pero eso es materia de otro post.
La Iniciativa Internacional de Compra Pública Sostenible (SPPI, Sustainable Public Procurement Iniciative) es el instrumento político fundamental a día de hoy para promover el desarrollo sostenible y avanzar hacia una economía verde que fomente el desarrollo de productos y servicios sostenibles, maximizando los beneficios sociales y medioambientales. Las Directivas de la Comisión Europea obligan a las administraciones públicas a basar sus decisiones de adjudicación en el principio de la oferta económicamente más ventajosa (MEAT), centrándose en los costes del ciclo de vida y en los productos social y medioambientalmente sostenibles. Los Estados miembros deben fomentar en general el análisis del coste de todo el ciclo de vida como una práctica habitual en las inversiones a largo plazo.
La inversión en infraestructuras de transporte tiene un impacto positivo en el crecimiento económico. Crean riqueza y puestos de trabajo, pero ha de hacerse de forma que se maximicen esos impactos positivos y se minimice el impacto negativo en el medioambiente. Concretamente, el transporte por ferrocarril supone el 0,2% de las emisiones globales en la UE27. De esas emisiones, la infraestructura supone el 28%, y la mitad se producen durante su construcción. Esto ilustra el alto impacto ambiental de estas actividades.
En el artículo del blog de IODC “Luchando contra el cambio climático: el reto de datos definitivo”, se defiende que los datos son más poderosos cuando están disponibles como datos abiertos o públicos y que los científicos no sólo utilizan los datos para monitorizar el cambio climático, sino también para ayudar a aportar soluciones, combinando la ciencia de los datos con la ciencia del clima.
En línea con estas ideas, hay una iniciativa, parcialmente financiada por el Programa LIFE+ de la Comisión Europea, que combina el análisis de ciclo de vida (ACV) con técnicas de análisis inteligente de datos, con el fin de mejorar la sostenibilidad de los procesos de construcción de infraestructuras ferroviarias, considerando aspectos ambientales, económicos y sociales. El objetivo es reducir las huellas de carbono e hídrica de los proyectos de construcción de infraestructuras ferroviarias desde las etapas iniciales, i.e. el diseño y la planificación.
En una reciente conferencia, Martina Werner, miembro del Parlamento Europeo y del Comité ITRE sobre Industria, Investigación y Energía, defendía que muchos fabricantes se limitan a competir en base al precio, mientras que un desarrollo riguroso de las directivas de compra, y particularmente del principio MEAT, puede proporcionar a los proveedores una ventaja competitiva. En la actualidad se tienen en cuenta numerosos factores durante el proceso de compra, incluyendo la fiabilidad de la cadena de suministro, los servicios, los costes de mantenimiento, factores medioambientales y criterios de responsabilidad social corporativa.
A partir del impacto medioambiental y social de las tareas más importantes, una herramienta de acceso abierto proporciona los valores de las huellas y determinados indicadores sociales y medioambientales como datos abiertos, para promover la incorporación de criterios medioambientales en los proyectos de construcción. Esta herramienta está disponible online, con toda la información relacionada con ACV y ACV Social (SLCA) y pretende difundir el desarrollo sostenible y allanar el camino para que administraciones públicas y licitadores utilicen este tipo de herramientas.