Los obstáculos al progreso científico y técnico en España (II)

Los obstáculos al progreso científico y técnico en España (II)

La actividad en I+D+i es muy diversa. Sus resultados son visibles cada día, aunque necesiten plazos de tiempo importantes para dar fruto. El éxito en esta disciplina es el resultado de  un esfuerzo continuado. Es evidente que los plazos de maduración son superiores a los mandatos políticos y ésta es quizás, la gran dificultad para conseguir un consenso político al respecto.

La sociedad española no parece ser consciente de que su nivel de vida está ligado al ritmo de avance de la ciencia y la tecnología en nuestro país. Por esto, nuestros gobernantes no sienten ninguna presión política para que los recursos públicos dedicados a la investigación y a la innovación no sean tan escasos. Es como si casi nadie estuviera interesado en cambiar esta situación. El grito castizo de Unamuno, “Que inventen ellos”, se percibe como el reflejo suicida del pensamiento de una gran parte  de los españoles.

Veamos algunos datos, los del 2014, últimos difundidos por  el INE. Los recursos totales dedicados en España a I+D ascendieron a 12.821 M€, un 1,5 % menos que el año anterior. Esta cifra representa el 1,23 % del PIB y con ella retrocedemos a la situación del  año 2003, en una tendencia que comienza en 2010. Nuestra posición se sitúa por debajo de la media de la UE; el 2,02%, menos que Portugal el 1,34% y, muy lejos de Alemania y los países nórdicos que dedican aproximadamente el 3% de su PIB.  Al contrario que en España, la media de la UE siguió subiendo en los años de la Gran Recesión. La situación es más desfavorable aun si nos comparamos con los líderes mundiales, Corea del Sur el 4,04% en 2012, y a cifras ligeramente inferiores de Japón y USA.

Al profundizar en las citadas cifras del INE de 2014 los datos se tornan más desfavorables,  ya que las Administraciones Públicas en España redujeron los recursos dedicados a I+D en un 1,1% y las empresas, en  un 1,8%.

Los datos del sector público son reales. Los de las empresas responden al resultado de la encuesta anual que hace el INE  siguiendo la metodología del Manual de Frascati y se realiza con el máximo cuidado. Ello no obsta que por razones fiscales,  de prestigio u otras, muchas empresas españolas declaren como  I+D  los gastos de  mantenimiento y otros similares. Existen otras circunstancias que pueden afectar  de manera confusa y aleatoria a las cifras de la encuesta, como por ejemplo las ampliaciones de capacidad.

Cuatro comunidades autónomas aumentaron los recursos dedicados a  I+D en 2014: La Rioja, Murcia, Galicia y Valencia.  Las otras, los redujeron. En valor relativo en % del PIB  hay  una gran dispersión. El País Vasco con un 2,03%, Navarra con un 1,75%, Madrid con un 1,68% y Cataluña con un 1,47%,  superan la media nacional.  A gran distancia le siguen el resto de regiones,  desde Andalucía con un 1,03%  hasta Baleares con un exiguo  0,32%. Estas cifras revelan de forma palmaria  el desinterés de gran parte de nuestras administraciones, la central y las regionales, por incentivar el motor básico del progreso económico y social español.

Es un robot y tiene sentimientos (I)

Es un robot y tiene sentimientos (I)

¿Puede un robot sentir? Si nos basamos en el mundo de la ciencia ficción, la respuesta sería claramente afirmativa. Películas como Blade Runner; 2001: una odisea en el espacio; Yo,robot o ex Machina nos muestran máquinas capaces de experimentar sentimientos tan humanos como el miedo, la ira o incluso el amor.

A pesar del creciente interés por la inteligencia artificial y las numerosas discusiones sobre las implicaciones que tendría en nuestra sociedad, el desarrollo de máquinas dotadas con una inteligencia artificial (IA) igual o superior a la humana (también conocida como IA fuerte) parece evidente.  Sin embargo, la tecnología actual está lejos de alcanzar los niveles de comportamiento “casi-humano” que los autores de ciencia ficción nos muestran en sus películas.

La IA Fuerte es, por tanto, un tipo hipotético de inteligencia artificial que sobrepasaría la IA conocida hasta el momento. Se trataría de una inteligencia artificial cuyo propósito sería el de emular lo más posible a la inteligencia humana, permitiendo la resolución de problemas y actividades en forma general. Ha de tenerse en cuenta que “general” significa que, en lugar de especializarse en resolver un solo tipo de problema (tal y como lo hace la IA actual), el sistema lograría emular lo que cualquier ser humano puede hacer.

Admitiendo que hubiéramos alcanzado el nivel tecnológico suficiente como para desarrollar una IA capaz de superar la inteligencia humana a la hora de resolver problemas y actividades cotidianas, ¿podría esta IA ser capaz de sentir emociones? Los últimos avances en el campo de la computación afectiva muestran máquinas con una “inteligencia emocional” cada vez más elaborada (aunque todavía muy básica si la comparamos con la humana) y hacen que un mayor número de investigadores crean que es sólo cuestión de tiempo que desaparezca la coletilla “ficción” del término ciencia, al menos en cuanto a inteligencia emocional se refiere. Sin embargo, son todavía muchos los convencidos de que los avances en IA como mucho permitirán “simular” las emociones humanas. Pero que, aún cuando alcancemos sistemas dotados con IA fuerte, éstos no serán más que eso: una forma inteligente de simulación.

Pero, ¿qué son las emociones?  Las emociones son reacciones psicofisiológicas que representan modos de adaptación a ciertos estímulos del individuo cuando percibe un objeto, persona, lugar, suceso, o recuerdo. Psicológicamente, las emociones alteran la atención y activan redes asociativas relevantes en la memoria. Fisiológicamente, las emociones organizan rápidamente las respuestas de distintos sistemas biológicos, incluidas las expresiones faciales, los músculos, la voz, el sistema endocrino, a fin de establecer un medio interno óptimo para el comportamiento más efectivo.

Conductualmente, las emociones sirven para establecer nuestra posición con respecto a nuestro entorno, y nos impulsan hacia ciertas personas, objetos, acciones, ideas y nos alejan de otros. Las emociones actúan también como depósito de influencias innatas y aprendidas, y poseen ciertas características invariables y otras que muestran cierta variación entre individuos, grupos y culturas.

Teniendo en cuenta la definición de emoción, es evidente que una reacción emocional desde un punto de vista fisiológico requiere algo más que una Inteligencia Artificial evolucionada. Sin embargo, parece claro que con un nivel adecuado de desarrollo tecnológico, sería posible crear una máquina capaz de adaptarse a estímulos externos, de cambiar de conducta activando diferentes sistemas internos, así como de generar sonidos, expresiones y otras variaciones en sus componentes que la ajustaran a un comportamiento más efectivo. En definitiva, de crear una reacción emocional a estímulos externos. Que esta reacción sea real o la consideremos como una mera simulación del comportamiento humano, es un debate candente. Un debate que aumentará de interés a medida que nos acerquemos a los niveles de desarrollo tecnológico que permitan desarrollar máquinas “sensibles”.

Flexitariano, millennial o foodie

Flexitariano, millennial o foodie

Si aún no has decidido cuál va a ser tu tendencia alimentaria para 2016, aquí te damos algunas pistas.

Cuando un año se cierra, son habituales los estudios que predicen las tendencias en cualquier sector. En la industria alimentaria, las listas que se publican sobre lo que “se llevará en la próxima temporada” se han convertido en una tradición. Conocer las tendencias que darán forma a los mercados mundiales resulta básico, ya que nos permitirá conocer qué alimentos formarán parte de la dieta de los consumidores, las claves para formular nuevos alimentos, la tecnología necesaria para su elaboración, etc.

Utilizando como referencia los estudios realizados por consultoras especializadas en investigación y análisis de mercado como Mintel (Informe Global Food and Drink Market in 2016), Innova Market Insights, La Asociación de Comida Especial (Specialty Food Association) y los productos presentados el pasado mes de octubre en la Feria Anuga, es posible prever las corrientes saludables que irrumpirán con más ímpetu durante el 2016 o como diría mi madre “por donde irán los tiros”.

Sin lugar a dudas, el año 2016 se presenta cargadito de alimentos vegetales y ya no habrá excusas para no consumirlos porque nos los encontraremos en todo tipo de productos como infusiones, yogures, helados, etc.

Nuestra preocupación por la salud, la sostenibilidad o el bienestar animal provocarán que comamos menos carne, convirtiéndonos en una especie de vegetarianos a tiempo parcial, lo que se ha denominado con mucha gracia “flexitarianos” (hasta el momento, digamos que un flexitariano era aquella persona que se declaraba vegetariano hasta que aparecía en la mesa un exquisito plato de jamón de Guijuelo). Esto implicará el desarrollo tecnológico de productos que recuerden la textura de la carne, la búsqueda de fuentes alternativas de proteínas y procesos más respetuosos con los animales. Según los expertos, este será un escenario ideal para el despegue de los alimentos ecológicos en 2016, al estar considerados por los consumidores como un bien común en favor del planeta.

Demandamos “alimentos de verdad”, es decir sin procesar o alimentos sin conservantes, aromas artificiales o aditivos elaborados mediante las técnicas tradicionales que han existido durante siglos. En este sentido, del Clean Label que fue una tendencia clave en el 2015, pasaremos al Clear Label, es decir no solo perseguimos productos con menos aditivos artificiales sino que la etiqueta sea lo más clara posible. Además nos interesa conocer el origen de los alimentos, quién los hace, cómo los elabora, sus propiedades, etc. Durante el 2016 nos dejaremos cautivar por los alimentos con mensaje (food telling).

Crecerán las iniciativas que buscan convertir un desperdicio en productos de mayor valor añadido, aprovechándose por ejemplo alimentos que no cumplen con los estándares de mercado por color, tamaño, forma y que habitualmente son descartados y se buscarán alternativas para transformar los productos a punto de caducar.

Por otro lado, estamos siendo testigos de la generalización de los productos libres de alérgenos, sobre todo sin gluten. Cada vez es más frecuente el consumo de alimentos sin gluten en personas que no padecen la enfermedad celíaca simplemente porque piensan que son más saludables, así que a la industria alimentaria no le ha quedado otro remedio que responder a un consumidor que demanda productos de calidad, de producción sostenible y mayor surtido en este ámbito. Cada vez es más común que las marcas elaboren productos bajo el slogan triple free o que cumplen varias exigencias a la vez, por ejemplo un alimento sin azúcares, sin gluten y sin lactosa.

Durante el 2016 se renovará la imagen de los snacks, que irá ocupando posiciones como una opción de alimento saludable especialmente a la hora del desayuno y el almuerzo. Los consumidores ya conocen que todos los nutrientes no son iguales, así que optarán por productos con grasas saludables, fibra y fuentes de proteínas (especialmente guisante y quinoa). Se sospecha que la moringa sea el próximo “superalimento”, las hojas de brócoli el vegetal de moda y el mijo la última alternativa en grano.

Poco a poco estaremos inmersos en una nutrición cada vez más personalizada pero no solo en lo que se refiere a lo que le sienta bien a nuestros genes sino a nuestro estilo de vida. Los departamentos de marketing consideran que los millennials, muppies (millennial y yuppie) o foodies (amantes de la buena mesa o “cocinillas”) serán el futuro. Están al corriente que los millennials buscan alimentos naturales, elaborados de forma sostenible, los muppies todo tipo de alimentos que les aporten los nutrientes necesarios para afrontar el ejercicio físico y los foodies confían en los productos de marca propia.

Defraudar a los miembros de estos grupos puede traer graves consecuencias porque sus opiniones se difundirán como la pólvora a través de las redes sociales.

En el 2016, triunfarán los productos de fácil preparación como alimentos precocinados que solo requieren ser calentados en el microondas o tostador para ser consumidos y mucho mejor si son envases individuales (monodosis), ya que cada vez son más las personas que viven solas y las familias más pequeñas.

La cuenta atrás ha comenzado y en CARTIF seguiremos innovando en alimentación saludable. Ojalá el destino nos depare un año muy innovador.

Green Manufacturing

Green Manufacturing

Cómo reducir el uso de recursos, residuos y emisiones en tres pasos

Los anglosajones lo llaman Green Manufacturing y en español podríamos llamarlo “fabricación limpia”. De entre sus posibles acepciones, en este post y sucesivos nos centraremos solo en aquella que se refiere a la ecologización de la fabricación, es decir, reducir el uso de los recursos naturales, potenciar el reciclado y reutilización de residuos y recortar las emisiones de gases de efecto invernadero para lograr que disminuyan la contaminación y los residuos generados.

Cada vez más empresas emprenden iniciativas e inversiones para reducir la utilización de los recursos naturales y energéticos, la generación de residuos y la emisión de contaminantes. Estas acciones, unidas al aumento del reciclado y la reutilización de lo que antes se consideraba un recurso sin valor, derivan en la obtención de beneficios económicos y de relaciones públicas.

Existen iniciativas de este tipo individuales o colectivas, con financiación privada, pública o mixta. Una de ellas, en la que personalmente estoy involucrado, es el proyecto demostrativo REEMAIN, financiado por el VII Programa Marco de la UE, en el que promovemos la innovación en el uso de recursos (energía y materiales) en la fabricación.

Entre otras acciones, este proyecto incluye la optimización del trío Producción-Producto-Proceso, la recuperación de posibles energías desperdiciadas en el proceso productivo y la integración de sistemas de energía renovables. En el proyecto contamos con tres fábricas demostradoras: una fábrica de galletas, una fundición de hierro y una fábrica textil de tela vaquera.

La “receta” que utilizamos se basa en tres pasos consecutivos: primero Reducir, después Recuperar y por último Remplazar.

Existe incluso un planteamiento mixto mediante centrales de co o tri-generación a partir de biomasa (con o sin refuerzo de paneles solares) donde una central anexa a la fábrica produce una parte o la totalidad de la electricidad, agua caliente (o vapor) e incluso el agua fría que la fábrica requiere para su funcionamiento. Las propuestas de esta etapa presentan un gran impacto sobre los sistemas productivos existentes, ya que suponen la instalación de grandes infraestructuras anexas; además, su interconexión con los sistemas productivos existentes es compleja. En algunos casos, su introducción obligará a realizar cambios en la organización de la producción.

En la próxima entrega hablaremos de las ventajas y de la carrera de obstáculos que tendrá que superar una fábrica que decida volverse “verde”, o al menos, intentarlo.

Ingeniería inversa en dinámica estructural

Ingeniería inversa en dinámica estructural

En los últimos años, con el abaratamiento de nuevas técnicas instrumentales y el desarrollo de los correspondientes algoritmos computacionales, están apareciendo multitud de trabajos basados en escaneado 3D y fotogrametría tendentes a obtener especificaciones técnicas de sistemas mecánicos o estructurales, las cuales no están disponibles por distintas razones. Aunque en el proceso ingenieril directo lo normal es disponer de los informes técnicos y de los planos del producto previamente a su construcción, la realidad es que las edificaciones antiguas no están documentadas o, si lo están, es bastante habitual que la ejecución de las mismas no se corresponda con lo proyectado. Y aunque así fuera, el paso del tiempo puede haber provocado diferencias en el comportamiento de los materiales por fatiga mecánica o agresiones químicas o haber sufrido daños localizados, asentamientos de los apoyos u otras patologías estructurales comunes.

Con frecuencia, los datos obtenidos se centran en dimensiones geométricas y características superficiales como rugosidad y color. Una de las aplicaciones más claras es la reconstrucción tridimensional de construcciones arquitectónicas, bien de edificación para posibles rehabilitaciones o elaboración de planos informados (BIM) o con fines de archivo del patrimonio histórico o industrial.

Pasarela peatonal estadio balear (Mallorca)

Aun siendo de gran utilidad los datos geométricos adquiridos, en ingeniería estructural no son suficientes y es necesario añadir información sobre las características de los distintos materiales de construcción, las uniones entre los mismos y su posible interacción con los soportes y el terreno.

Afortunadamente, también se están haciendo más accesibles tecnologías que permiten extraer cierta información adicional. En esta entrada se verá cómo mediante sencillos registros de aceleración y algoritmos de identificación y de actualizado computacional, se puede completar la información geométrica y disponer de las especificaciones técnicas necesarias que permitan conocer el comportamiento dinámico de la estructura bajo estudio. Estos procedimientos no requieren ensayos destructivos y, en el supuesto de que estos fueran viables, dichos ensayos no proporcionarían la información buscada a pesar de su mayor coste económico.

En primer lugar, comentar que la captura geométrica realizada, con independencia de su precisión dimensional, hace referencia a un determinado estado de carga sobre la estructura (al menos el debido a las acciones gravitatorias) y corresponde a una determinada temperatura ambiente. Ambas condiciones afectan significativamente en estructuras esbeltas como puentes o torres de tendido eléctrico. Además, en general, estas construcciones experimentan inevitables oscilaciones debidas a acciones ambientales que pueden también afectar a la precisión dimensional registrada.

En segundo lugar es interesante tener en cuenta que en ingeniería estructural y en construcción de obras civiles es usual recurrir a componentes comerciales (perfiles, encofrados, tuberías, farolas) de dimensiones discretas conocidas. Esto habilita la posibilidad de proceder a escalados adaptativos que permiten mejorar la precisión dimensional o su refinamiento local. De esta manera no serían necesarios registros dimensionales exhaustivos y se podría recurrir a sistemas de bajo coste tanto instrumental (cámaras) como de equipos informáticos necesarios para su postprocesado.

Registros de aceleramiento en cuatro puntos

Teniendo en cuenta lo anterior y presuponiendo ciertas habilidades para el modelado computacional en construcciones de este tipo, es posible disponer de un modelo preliminar de la estructura. Sobre este modelo, el método de los elementos finitos permite estimar la deformación incremental debida a ciertas cargas o acciones térmicas y mediante correlaciones adecuadas comenzar a estimar ciertos parámetros internos (densidad efectiva, rigidez, daño, etc.). No obstante la metodología cobra especial importancia cuando se combina la información anterior con datos modales. Para ello lo primero es disponer de los modos propios identificados experimentalmente (mediante análisis modal operacional, post-procesando los registros de aceleración ante cargas ambientales) y posteriormente seleccionar ciertos parámetros del modelo computacional. Ahora se trata de ajustar el valor de dichos parámetros (mediante rutinas de optimización y en función de la sensibilidad de cada parámetro y su rango de valores admisibles) para que casen los modos experimentales con los calculados computacionalmente. En este proceso se deben tener en cuenta no solo las formas modales más representativas sino también sus frecuencias y amortiguamientos modales.

Una vez determinados los valores de dichos parámetros se consigue disponer de un modelo a partir del cual poder no solo generar la correspondiente documentación técnica de la estructura real sino poder estimar su vulnerabilidad ante cargas accidentales, evaluar la vida útil o conocer la efectividad de diversas medidas de conservación, entre otras aplicaciones, entrando en lo que se conoce como re-ingeniería estructural, de cuyas ventajas se podrá hablar próximamente.

La casa que habla

La casa que habla

El título quizá sugiere un escenario clásico de película de terror: unas personas, normalmente un grupo de jóvenes, entran en una casa deshabitada que parece tener vida propia, y que les causa problemas que, dependiendo del guion, pueden terminar bastante mal para ellos.

En el mundo existen esas otras casas que, sin las oscuras intenciones de sus homónimas cinematográficas, se comunican con las personas que las ocupan habitualmente. Estamos hablando de viviendas, centros de trabajo, comercios y lugares de ocio donde los edificios interaccionan con los usuarios, a veces de forma directa, a veces de forma sutil, sin que las personas sean conscientes de ello.

Tradicionalmente, los edificios se comportaban como elementos pasivos, es decir,  poseedores de unas características completamente dependientes tanto de los usuarios como de los equipos que se encontraban integrados en los mismos (calefacción y aire acondicionado, corriente eléctrica, fontanería e instalaciones de agua, y en tiempos más recientes         telecomunicaciones). Los edificios tradicionales eran concebidos y existían con unas finalidades predeterminadas. Las personas que hacían uso del edificio disfrutaban (y sufrían) de las condiciones de funcionamiento del edificio, y solo ciertos parámetros podían ser variados, pero siempre con la intervención directa del usuario o del administrador/mantenimiento del edificio.

No siempre está claro si el avance de las tecnologías o las ideas para implementarlas van una delante de la otra temporalmente, pero lo cierto es que la mejora en las características de los equipos instalados en los edificios y el hecho de que sus precios hayan evolucionado hacia valores razonables para el usuario medio, han conseguido que se pueda llevar a cabo, a nivel global, el paso de la vivienda tradicional pasiva a una vivienda activa. Pero ¿qué se puede considerar como una vivienda activa?

Antes que nada, hay que aclarar que, a nivel energético, existen los conceptos de “vivienda activa” y “vivienda pasiva” (PassivHaus). En el primer caso se refiere a la vivienda tradicional, y en el segundo a la vivienda que, sin apoyo de dispositivos que consumen energía, es capaz de mantener unas condiciones climáticas y de confort adecuadas para el usuario. Nosotros nos referimos con vivienda activa a nivel energético hablando del campo interactivo, cuando la vivienda “habla” con el usuario: recibe las solicitudes y necesidades de las personas que usan el edificio, y realiza una gestión inteligente de sus propios recursos y mecanismos (calefacción, luces, etcétera) para satisfacer esas solicitudes y necesidades, generando un nivel de confort apropiado para cada caso.

Actualmente, existen soluciones para estas viviendas activas (o como hemos visto, mejor viviendas interactivas) que combinan tres elementos fundamentales en el funcionamiento de este tipo de viviendas: sensores e interfaces, redes de control, e instalaciones. Los primeros son los ojos y oídos del sistema, y captan los datos actuales del entorno y las necesidades del usuario. Luego las redes unen, como el sistema circulatorio del cuerpo humano, todos los elementos del sistema, incluyendo las comunicaciones entre ellos. Y finalmente, las propias instalaciones, que realizan las acciones necesarias para llevarlos a cabo.

Los sensores han evolucionado en precio y prestaciones hasta poder ser utilizados en las viviendas actuales, y su futuro pasa por más mejoras y reducciones en los costes, además de facilitar su instalación y mantenimiento.

En las redes, existen diversos fabricantes y consorcios con sus propios protocolos, y la tendencia en estos casos es a que sobrevivan únicamente unos pocos, con lo que el proceso de generar la red de control del edificio se simplifica, así como sus costes y mantenimiento.

Sobre las instalaciones, éstas se van adaptando poco a poco a las necesidades actuales, ofreciendo nuevas posibilidades de confort, y mejorando la eficiencia energética de los edificios.

Se podría hablar además de un concepto relativamente nuevo llamado BEMS (Building Energy Management System), en el que CARTIF trabaja actualmente, y que englobaría parte de todo lo anterior. Este sistema gestiona estos “edificios activos” como un todo, incluyendo conceptos como el internet de las cosas (IoT), las redes neuronales y la lógica difusa para predicción de modelos y toma de decisiones.

Como conclusión, se puede decir que el paradigma de la vivienda ha evolucionado hasta convertirla en un elemento vivo que se comunica con nosotros, y que nos facilita, de forma inteligente, el confort y gestión energética que necesitamos.