Y ahora es cuando al ver el título de esta entrada, esperas encontrar un post sobre el contexto social actual, donde la palabra “cambio” es retuiteada sin parar. Pero no. Aquí estamos para hablarte de nuestro libro y hoy toca nuevamente el capítulo medioambiental. Y con el título de esta entrada queremos reivindicar la necesidad de un cambio de aires. Literalmente.
Son muchas las noticias sobre contaminación atmosférica que nos acompañan desde hace unos meses, a modo de grandes titulares. Pero ¿qué significa este término exactamente? Si empezamos por la definición, se entiende por contaminación atmosférica la presencia en la atmósfera de sustancias en una cantidad tal que impliquen riesgo para la salud, tanto de las personas como de los demás seres vivos, así como para los bienes de cualquier naturaleza, ya que también puede atacar a distintos materiales, reducir la visibilidad y/o producir olores desagradables. Y si acabamos por el epílogo, la Organización Mundial de la Salud la está calificando ahora mismo como emergencia de salud pública.
Y aunque es conocida la capacidad de autodepuración del aire que tiene la Naturaleza (¡qué sería de nosotros sin ella!), las altas tasas de emisión de contaminantes antropogénicos de los últimos años están sobrepasando sus límites. En el entorno de las grandes urbes, por ejemplo, la calidad del aire atmosférico presenta frecuentemente unos niveles tan bajos que la contaminación provoca afecciones directas (y graves) a la salud de los seres humanos, animales y vegetales que en él habitan. Que se lo digan a los ciudadanos de Madrid, con sus necesarias restricciones al tráfico por los picos de concentración, o incluso a los de Valladolid, que habrían soportado alrededor de un centenar de días de mala calidad del aire en 2015 (si consideramos los límites de la OMS y teniendo en cuenta todos los parámetros que la definen). Y esto sin cruzar el charco hacia el este del planeta, donde las definiciones se quedan cortas. Las imágenes de Nueva Delhi y Tiananmen permanecen en nuestras retinas, siempre asociadas a una densa nube gris.
Es por esto por lo que la contaminación ambiental es, ahora mismo, uno de los grandes retos tecnológicos, económicos y sociales a solventar por la sociedad actual.
En CARTIFtrabajamos desde hace tiempo en el concepto calidad del aire y son varias las tecnologías que estamos ya desarrollando. Podemos contaros que estamos inmersos en el diseño de una formulación de aplicación en pavimentos asfálticos, para la eliminación de óxidos de nitrógeno en ambientes urbanos, así como en la implantación de una nueva técnica analítica para la cuantificación de dioxinas en entornos susceptibles de ser problemáticos. Además, estamos trabajando en propuestas que incluyan Nature based solutions, es decir, el empleo de diferentes especies vegetales para la absorción de óxidos de nitrógeno (además de como sumideros de carbono), o para que actúen como barrera y fijen partículas, de manera que dejen de estar presentes en el aire, a la vez que ayudan a regular la humedad y temperatura de las ciudades, asegurando mayores condiciones de confort y salud para los ciudadanos.
Os invitamos a reflexionar sobre la importancia de la calidad del aire que respiramos, y es que necesariamente deben llegar aires de cambio. Para nosotros, la fórmula del éxito se encuentra en la ecuación Investigación + Desarrollo + Concienciación, y apostamos (trabajamos) por ello.
Y es que siempre es conveniente recordar que el papel de los ciudadanos puede resultar crucial para mitigar este problema, ya que el tráfico de vehículos a motor es la principal fuente de contaminación en las ciudades. Por ello, utilizar medios de movilidad sostenible, como la bicicleta, constituye una alternativa que, además de mejorar la salud del que lo practica, ayuda a mantener un aire limpio. O compartir el coche para ir al trabajo. O incluir más, y mejores, espacios verdes en los planes de desarrollo urbanístico de las ciudades. En nuestras manos también está formar parte activa de la solución… “Piensa globalmente, actúa localmente”.
La actividad en I+D+i es muy diversa. Sus resultados son visibles cada día, aunque necesiten plazos de tiempo importantes para dar fruto. El éxito en esta disciplina es el resultado de un esfuerzo continuado. Es evidente que los plazos de maduración son superiores a los mandatos políticos y ésta es quizás, la gran dificultad para conseguir un consenso político al respecto.
La sociedad española no parece ser consciente de que su nivel de vida está ligado al ritmo de avance de la ciencia y la tecnología en nuestro país. Por esto, nuestros gobernantes no sienten ninguna presión política para que los recursos públicos dedicados a la investigación y a la innovación no sean tan escasos. Es como si casi nadie estuviera interesado en cambiar esta situación. El grito castizo de Unamuno, “Que inventen ellos”, se percibe como el reflejo suicida del pensamiento de una gran parte de los españoles.
Veamos algunos datos, los del 2014, últimos difundidos por el INE. Los recursos totales dedicados en España a I+D ascendieron a 12.821 M€, un 1,5 % menos que el año anterior. Esta cifra representa el 1,23 % del PIB y con ella retrocedemos a la situación del año 2003, en una tendencia que comienza en 2010. Nuestra posición se sitúa por debajo de la media de la UE; el 2,02%, menos que Portugal el 1,34% y, muy lejos de Alemania y los países nórdicos que dedican aproximadamente el 3% de su PIB. Al contrario que en España, la media de la UE siguió subiendo en los años de la Gran Recesión. La situación es más desfavorable aun si nos comparamos con los líderes mundiales, Corea del Sur el 4,04% en 2012, y a cifras ligeramente inferiores de Japón y USA.
Al profundizar en las citadas cifras del INE de 2014 los datos se tornan más desfavorables, ya que las Administraciones Públicas en España redujeron los recursos dedicados a I+D en un 1,1% y las empresas, en un 1,8%.
Los datos del sector público son reales. Los de las empresas responden al resultado de la encuesta anual que hace el INE siguiendo la metodología del Manual de Frascati y se realiza con el máximo cuidado. Ello no obsta que por razones fiscales, de prestigio u otras, muchas empresas españolas declaren como I+D los gastos de mantenimiento y otros similares. Existen otras circunstancias que pueden afectar de manera confusa y aleatoria a las cifras de la encuesta, como por ejemplo las ampliaciones de capacidad.
Cuatro comunidades autónomas aumentaron los recursos dedicados a I+D en 2014: La Rioja, Murcia, Galicia y Valencia. Las otras, los redujeron. En valor relativo en % del PIB hay una gran dispersión. El País Vasco con un 2,03%, Navarra con un 1,75%, Madrid con un 1,68% y Cataluña con un 1,47%, superan la media nacional. A gran distancia le siguen el resto de regiones, desde Andalucía con un 1,03% hasta Baleares con un exiguo 0,32%. Estas cifras revelan de forma palmaria el desinterés de gran parte de nuestras administraciones, la central y las regionales, por incentivar el motor básico del progreso económico y social español.
¿Puede un robot sentir? Si nos basamos en el mundo de la ciencia ficción, la respuesta sería claramente afirmativa. Películas como Blade Runner; 2001: una odisea en el espacio; Yo,robot o ex Machina nos muestran máquinas capaces de experimentar sentimientos tan humanos como el miedo, la ira o incluso el amor.
A pesar del creciente interés por la inteligencia artificial y las numerosas discusiones sobre las implicaciones que tendría en nuestra sociedad, el desarrollo de máquinas dotadas con una inteligencia artificial (IA) igual o superior a la humana (también conocida como IA fuerte) parece evidente. Sin embargo, la tecnología actual está lejos de alcanzar los niveles de comportamiento “casi-humano” que los autores de ciencia ficción nos muestran en sus películas.
La IA Fuerte es, por tanto, un tipo hipotético de inteligencia artificial que sobrepasaría la IA conocida hasta el momento. Se trataría de una inteligencia artificial cuyo propósito sería el de emular lo más posible a la inteligencia humana, permitiendo la resolución de problemas y actividades en forma general. Ha de tenerse en cuenta que “general” significa que, en lugar de especializarse en resolver un solo tipo de problema (tal y como lo hace la IA actual), el sistema lograría emular lo que cualquier ser humano puede hacer.
Admitiendo que hubiéramos alcanzado el nivel tecnológico suficiente como para desarrollar una IA capaz de superar la inteligencia humana a la hora de resolver problemas y actividades cotidianas, ¿podría esta IA ser capaz de sentir emociones? Los últimos avances en el campo de la computación afectiva muestran máquinas con una “inteligencia emocional” cada vez más elaborada (aunque todavía muy básica si la comparamos con la humana) y hacen que un mayor número de investigadores crean que es sólo cuestión de tiempo que desaparezca la coletilla “ficción” del término ciencia, al menos en cuanto a inteligencia emocional se refiere. Sin embargo, son todavía muchos los convencidos de que los avances en IA como mucho permitirán “simular” las emociones humanas. Pero que, aún cuando alcancemos sistemas dotados con IA fuerte, éstos no serán más que eso: una forma inteligente de simulación.
Pero, ¿qué son las emociones? Las emociones son reacciones psicofisiológicas que representan modos de adaptación a ciertos estímulos del individuo cuando percibe un objeto, persona, lugar, suceso, o recuerdo. Psicológicamente, las emociones alteran la atención y activan redes asociativas relevantes en la memoria. Fisiológicamente, las emociones organizan rápidamente las respuestas de distintos sistemas biológicos, incluidas las expresiones faciales, los músculos, la voz, el sistema endocrino, a fin de establecer un medio interno óptimo para el comportamiento más efectivo.
Conductualmente, las emociones sirven para establecer nuestra posición con respecto a nuestro entorno, y nos impulsan hacia ciertas personas, objetos, acciones, ideas y nos alejan de otros. Las emociones actúan también como depósito de influencias innatas y aprendidas, y poseen ciertas características invariables y otras que muestran cierta variación entre individuos, grupos y culturas.
Teniendo en cuenta la definición de emoción, es evidente que una reacción emocional desde un punto de vista fisiológico requiere algo más que una Inteligencia Artificial evolucionada. Sin embargo, parece claro que con un nivel adecuado de desarrollo tecnológico, sería posible crear una máquina capaz de adaptarse a estímulos externos, de cambiar de conducta activando diferentes sistemas internos, así como de generar sonidos, expresiones y otras variaciones en sus componentes que la ajustaran a un comportamiento más efectivo. En definitiva, de crear una reacción emocional a estímulos externos. Que esta reacción sea real o la consideremos como una mera simulación del comportamiento humano, es un debate candente. Un debate que aumentará de interés a medida que nos acerquemos a los niveles de desarrollo tecnológico que permitan desarrollar máquinas “sensibles”.
Si aún no has decidido cuál va a ser tu tendencia alimentaria para 2016, aquí te damos algunas pistas.
Cuando un año se cierra, son habituales los estudios que predicen las tendencias en cualquier sector. En la industria alimentaria, las listas que se publican sobre lo que “se llevará en la próxima temporada” se han convertido en una tradición. Conocer las tendencias que darán forma a los mercados mundiales resulta básico, ya que nos permitirá conocer qué alimentos formarán parte de la dieta de los consumidores, las claves para formular nuevos alimentos, la tecnología necesaria para su elaboración, etc.
Utilizando como referencia los estudios realizados por consultoras especializadas en investigación y análisis de mercado como Mintel (Informe Global Food and Drink Market in 2016), Innova Market Insights, La Asociación de Comida Especial (Specialty Food Association) y los productos presentados el pasado mes de octubre en la Feria Anuga, es posible prever las corrientes saludables que irrumpirán con más ímpetu durante el 2016 o como diría mi madre “por donde irán los tiros”.
Sin lugar a dudas, el año 2016 se presenta cargadito de alimentos vegetales y ya no habrá excusas para no consumirlos porque nos los encontraremos en todo tipo de productos como infusiones, yogures, helados, etc.
Nuestra preocupación por la salud, la sostenibilidad o el bienestar animal provocarán que comamos menos carne, convirtiéndonos en una especie de vegetarianos a tiempo parcial, lo que se ha denominado con mucha gracia “flexitarianos” (hasta el momento, digamos que un flexitariano era aquella persona que se declaraba vegetariano hasta que aparecía en la mesa un exquisito plato de jamón de Guijuelo). Esto implicará el desarrollo tecnológico de productos que recuerden la textura de la carne, la búsqueda de fuentes alternativas de proteínas y procesos más respetuosos con los animales. Según los expertos, este será un escenario ideal para el despegue de los alimentos ecológicos en 2016, al estar considerados por los consumidores como un bien común en favor del planeta.
Demandamos “alimentos de verdad”, es decir sin procesar o alimentos sin conservantes, aromas artificiales o aditivos elaborados mediante las técnicas tradicionales que han existido durante siglos. En este sentido, del Clean Label que fue una tendencia clave en el 2015, pasaremos al Clear Label, es decir no solo perseguimos productos con menos aditivos artificiales sino que la etiqueta sea lo más clara posible. Además nos interesa conocer el origen de los alimentos, quién los hace, cómo los elabora, sus propiedades, etc. Durante el 2016 nos dejaremos cautivar por los alimentos con mensaje (food telling).
Crecerán las iniciativas que buscan convertir un desperdicio en productos de mayor valor añadido, aprovechándose por ejemplo alimentos que no cumplen con los estándares de mercado por color, tamaño, forma y que habitualmente son descartados y se buscarán alternativas para transformar los productos a punto de caducar.
Por otro lado, estamos siendo testigos de la generalización de los productos libres de alérgenos, sobre todo sin gluten. Cada vez es más frecuente el consumo de alimentos sin glutenen personas que no padecen la enfermedad celíaca simplemente porque piensan que son más saludables, así que a la industria alimentaria no le ha quedado otro remedio que responder a un consumidor que demanda productos de calidad, de producción sostenible y mayor surtido en este ámbito. Cada vez es más común que las marcas elaboren productos bajo el slogan triple free o que cumplen varias exigencias a la vez, por ejemplo un alimento sin azúcares, sin gluten y sin lactosa.
Durante el 2016 se renovará la imagen de los snacks, que irá ocupando posiciones como una opción de alimento saludable especialmente a la hora del desayuno y el almuerzo. Los consumidores ya conocen que todos los nutrientes no son iguales, así que optarán por productos con grasas saludables, fibra y fuentes de proteínas (especialmente guisante y quinoa). Se sospecha que la moringa sea el próximo “superalimento”, las hojas de brócoli el vegetal de moda y el mijo la última alternativa en grano.
Poco a poco estaremos inmersos en una nutrición cada vez más personalizada pero no solo en lo que se refiere a lo que le sienta bien a nuestros genes sino a nuestro estilo de vida. Los departamentos de marketing consideran que los millennials, muppies(millennial y yuppie) o foodies (amantes de la buena mesa o “cocinillas”) serán el futuro. Están al corriente que los millennials buscan alimentos naturales, elaborados de forma sostenible, los muppies todo tipo de alimentos que les aporten los nutrientes necesarios para afrontar el ejercicio físico y los foodies confían en los productos de marca propia.
Defraudar a los miembros de estos grupos puede traer graves consecuencias porque sus opiniones se difundirán como la pólvora a través de las redes sociales.
En el 2016, triunfarán los productos de fácil preparación como alimentos precocinados que solo requieren ser calentados en el microondas o tostador para ser consumidos y mucho mejor si son envases individuales (monodosis), ya que cada vez son más las personas que viven solas y las familias más pequeñas.
La cuenta atrás ha comenzado y en CARTIF seguiremos innovando en alimentación saludable. Ojalá el destino nos depare un año muy innovador.
Cómo reducir el uso de recursos, residuos y emisiones en tres pasos
Los anglosajones lo llaman Green Manufacturing y en español podríamos llamarlo “fabricación limpia”. De entre sus posibles acepciones, en este post y sucesivos nos centraremos solo en aquella que se refiere a la ecologización de la fabricación, es decir, reducir el uso de los recursos naturales, potenciar el reciclado y reutilización de residuos y recortar las emisiones de gases de efecto invernadero para lograr que disminuyan la contaminación y los residuos generados.
Cada vez más empresas emprenden iniciativas e inversiones para reducir la utilización de los recursos naturales y energéticos, la generación de residuos y la emisión de contaminantes. Estas acciones, unidas al aumento del reciclado y la reutilización de lo que antes se consideraba un recurso sin valor, derivan en la obtención de beneficios económicos y de relaciones públicas.
Existen iniciativas de este tipo individuales o colectivas, con financiación privada, pública o mixta. Una de ellas, en la que personalmente estoy involucrado, es el proyecto demostrativo REEMAIN, financiado por el VII Programa Marco de la UE, en el que promovemos la innovación en el uso de recursos (energía y materiales) en la fabricación.
Entre otras acciones, este proyecto incluye la optimización del trío Producción-Producto-Proceso, la recuperación de posibles energías desperdiciadas en el proceso productivo y la integración de sistemas de energía renovables. En el proyecto contamos con tres fábricas demostradoras: una fábrica de galletas, una fundición de hierro y una fábrica textil de tela vaquera.
La “receta” que utilizamos se basa en tres pasos consecutivos: primero Reducir, después Recuperar y por último Remplazar.
Existe incluso un planteamiento mixto mediante centrales de co o tri-generación a partir de biomasa (con o sin refuerzo de paneles solares) donde una central anexa a la fábrica produce una parte o la totalidad de la electricidad, agua caliente (o vapor) e incluso el agua fría que la fábrica requiere para su funcionamiento. Las propuestas de esta etapa presentan un gran impacto sobre los sistemas productivos existentes, ya que suponen la instalación de grandes infraestructuras anexas; además, su interconexión con los sistemas productivos existentes es compleja. En algunos casos, su introducción obligará a realizar cambios en la organización de la producción.
En la próxima entrega hablaremos de las ventajas y de la carrera de obstáculos que tendrá que superar una fábrica que decida volverse “verde”, o al menos, intentarlo.
En los últimos años, con el abaratamiento de nuevas técnicas instrumentales y el desarrollo de los correspondientes algoritmos computacionales, están apareciendo multitud de trabajos basados en escaneado 3D y fotogrametría tendentes a obtener especificaciones técnicas de sistemas mecánicos o estructurales, las cuales no están disponibles por distintas razones. Aunque en el proceso ingenieril directo lo normal es disponer de los informes técnicos y de los planos del producto previamente a su construcción, la realidad es que las edificaciones antiguas no están documentadas o, si lo están, es bastante habitual que la ejecución de las mismas no se corresponda con lo proyectado. Y aunque así fuera, el paso del tiempo puede haber provocado diferencias en el comportamiento de los materiales por fatiga mecánica o agresiones químicas o haber sufrido daños localizados, asentamientos de los apoyos u otras patologías estructurales comunes.
Con frecuencia, los datos obtenidos se centran en dimensiones geométricas y características superficiales como rugosidad y color. Una de las aplicaciones más claras es la reconstrucción tridimensional de construcciones arquitectónicas, bien de edificación para posibles rehabilitaciones o elaboración de planos informados (BIM) o con fines de archivo del patrimonio histórico o industrial.
Pasarela peatonal estadio balear (Mallorca)
Aun siendo de gran utilidad los datos geométricos adquiridos, en ingeniería estructural no son suficientes y es necesario añadir información sobre las características de los distintos materiales de construcción, las uniones entre los mismos y su posible interacción con los soportes y el terreno.
Afortunadamente, también se están haciendo más accesibles tecnologías que permiten extraer cierta información adicional. En esta entrada se verá cómo mediante sencillos registros de aceleración y algoritmos de identificación y de actualizado computacional, se puede completar la información geométrica y disponer de las especificaciones técnicas necesarias que permitan conocer el comportamiento dinámico de la estructura bajo estudio. Estos procedimientos no requieren ensayos destructivos y, en el supuesto de que estos fueran viables, dichos ensayos no proporcionarían la información buscada a pesar de su mayor coste económico.
En primer lugar, comentar que la captura geométrica realizada, con independencia de su precisión dimensional, hace referencia a un determinado estado de carga sobre la estructura (al menos el debido a las acciones gravitatorias) y corresponde a una determinada temperatura ambiente. Ambas condiciones afectan significativamente en estructuras esbeltas como puentes o torres de tendido eléctrico. Además, en general, estas construcciones experimentan inevitables oscilaciones debidas a acciones ambientales que pueden también afectar a la precisión dimensional registrada.
En segundo lugar es interesante tener en cuenta que en ingeniería estructural y en construcción de obras civiles es usual recurrir a componentes comerciales (perfiles, encofrados, tuberías, farolas) de dimensiones discretas conocidas. Esto habilita la posibilidad de proceder a escalados adaptativos que permiten mejorar la precisión dimensional o su refinamiento local. De esta manera no serían necesarios registros dimensionales exhaustivos y se podría recurrir a sistemas de bajo coste tanto instrumental (cámaras) como de equipos informáticos necesarios para su postprocesado.
Registros de aceleramiento en cuatro puntos
Teniendo en cuenta lo anterior y presuponiendo ciertas habilidades para el modelado computacional en construcciones de este tipo, es posible disponer de un modelo preliminar de la estructura. Sobre este modelo, el método de los elementos finitos permite estimar la deformación incremental debida a ciertas cargas o acciones térmicas y mediante correlaciones adecuadas comenzar a estimar ciertos parámetros internos (densidad efectiva, rigidez, daño, etc.). No obstante la metodología cobra especial importancia cuando se combina la información anterior con datos modales. Para ello lo primero es disponer de los modos propios identificados experimentalmente (mediante análisis modal operacional, post-procesando los registros de aceleración ante cargas ambientales) y posteriormente seleccionar ciertos parámetros del modelo computacional. Ahora se trata de ajustar el valor de dichos parámetros (mediante rutinas de optimización y en función de la sensibilidad de cada parámetro y su rango de valores admisibles) para que casen los modos experimentales con los calculados computacionalmente. En este proceso se deben tener en cuenta no solo las formas modales más representativas sino también sus frecuencias y amortiguamientos modales.
Una vez determinados los valores de dichos parámetros se consigue disponer de un modelo a partir del cual poder no solo generar la correspondiente documentación técnica de la estructura real sino poder estimar su vulnerabilidad ante cargas accidentales, evaluar la vida útil o conocer la efectividad de diversas medidas de conservación, entre otras aplicaciones, entrando en lo que se conoce como re-ingeniería estructural, de cuyas ventajas se podrá hablar próximamente.