Inteligencia Artificial y Análisis inteligente de Datos: ¡¡estadística y matemáticas, no magia!!

Inteligencia Artificial y Análisis inteligente de Datos: ¡¡estadística y matemáticas, no magia!!

Inteligencia Artificial, Machine Learning, Deep Learning, Dispositivos Inteligentes…,- términos con los que constantemente nos bombardean en los medios de comunicación haciéndonos creer que estas tecnologías son capaces de hacer cualquier cosa y resolver cualquier problema al que nos enfrentemos. ¡¡Nada más lejos de la realidad!!

Según la Comisión Europea1, «los sistemas de inteligencia artificial (IA) son sistemas de software (y en algunos casos también de hardware) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno a través de la obtención de datos, la interpretación de los datos estructurados o no estructurados que recopilan, el razonamiento sobre el conocimiento o el procesamiento de la información derivados de esos datos, y decidiendo la acción o acciones óptimas que deben llevar a cabo para lograr el objetivo establecido»

La IA engloba múltiples enfoques y técnicas entre las que se encuentran el aprendizaje automático, el razonamiento automático y la robótica. Dentro de ellas centraremos nuestra reflexión en el aprendizaje automático a partir de datos, y más concretamente en el Análisis Inteligente de los Datos orientado a extraer información y conocimiento que nos ayude a tomar decisiones. Se trata de esos datos (históricos o en continuo) que son almacenados por las empresas a lo largo del tiempo y que muchas veces no son puestos en valor. Esos datos que reflejan la realidad de una actividad en concreto y que nos van a permitir crear modelos estadísticos y matemáticos (en forma de reglas y/o algoritmos) que contienen información acerca de cómo es la realidad, de cómo son las cosas tal y como ocurren en la actualidad. ¿Cuáles son entonces los actores principales que intervienen en cómo «cocinar» los datos para obtener información relevante? Los datos, que serán nuestros «ingredientes»; los algoritmos, capaces de procesar esos datos, que serán nuestras «recetas»; los informáticos y matemáticos, que serán los «jefes de cocina» capaces de mezclar correctamente los datos y los algoritmos; y los expertos de dominio, que serán nuestros «catadores» particulares y cuyo cometido será validar los resultados obtenidos.

En primer lugar los datos, esos datos a partir de los cuales queremos extraer información con la que generar modelos o hacer predicciones. Mediante un proceso de aprendizaje continuo de prueba y error, basado en analizar cómo fueron las cosas en el pasado, que tendencias había, que patrones se repetían, etc. se pueden generar modelos y realizar predicciones que serán tan «buenas» como lo son los datos. No es cuestión de cantidad de datos, sino de su calidad. ¿Qué significa eso exactamente? Significa que si a un sistema de IA le enseñamos a multiplicar (dándole ejemplos de multiplicaciones correctas) sabrá hacer esa tarea (multiplicar) pero nunca sabrá restar o dividir. Y que si le damos ejemplos ‘incorrectos’ (3*2=9 en lugar de 3*2=6) aprenderá a multiplicar, pero de forma errónea. Necesitamos por tanto que los datos, ingredientes fundamentales de nuestra receta, estén bien organizados, sean de calidad y podamos confiar en ellos (deben ser relevantes).

Por otro lado están los algoritmos de IA, nuestras «recetas» que nos dicen cómo mezclar correctamente los «ingredientes», como utilizar los datos disponibles para intentar resolver nuestro problema. Son algoritmos que nos permiten construir sistemas informáticos que emulan la inteligencia humana a la hora de automatizar tareas. Sin embargo no todos los algoritmos sirven para resolver cualquier tipo de problema. ¿Qué hay entonces en el «interior» de estos algoritmos? Se trata principalmente de fórmulas matemáticas y estadísticas propuestas hace décadas y cuyas bases han avanzado poco en los últimos años, pero que son ahora más efectivos gracias, no solo al aumento en la cantidad de datos que pueden analizar, sino también al aumento en la potencia de cálculo de los ordenadores, que está permitiendo realizar cálculos mucho más complejos, en menos tiempo y a bajo coste. Sin embargo, aptitudes como la intuición, la creatividad o la consciencia son habilidades humanas que (de momento) no hemos conseguido transferir a una máquina de forma efectiva. Serán, por tanto, – nuestros «jefes de cocina» y nuestros «catadores» los encargados de aportar esos factores humanos en nuestra particular «cocina».

Es por ello que no todos los problemas se pueden resolver utilizando IA ¿Por qué? Porque ni los datos son capaces de «hablar» por si solos, ni son «portadores» de la verdad absoluta, ni los algoritmos son «videntes» capaces de adivinar lo impredecible. Lo que realmente saben hacer los datos y los algoritmos es contestar a las preguntas que les planteamos tomando como base el pasado, siempre y cuando las preguntas planteadas sean las adecuadas. Tras el fallo de una máquina, ¿ cómo se relacionan matemáticamente los datos proporcionados por los sensores que monitorizan la máquina con el fallo producido? Cuando se analiza una imagen, ¿ cómo de parecida es a las imágenes que se han analizado previamente? Cuando se le hace una pregunta a un asistente virtual, ¿ qué respuesta se ha dado más habitualmente en el pasado a esa misma pregunta? Se trata, por tanto, de interrogar a los datos de la forma correcta para que nos revelen la información que queremos.

A lo largo del último siglo la IA ha logrado sobrevivir a varios ‘inventos’ tecnológicos con escasez de financiación e investigación, provocados principalmente por el entusiasmo descontrolado que se puso en la tecnología los años previos2. Ha llegado al momento de «aprender» de nuestros datos históricos y no volver a cometer los mismos erros. Reconozcámosle a la IA las capacidades que realmente tiene y dejemos a los magos de su capacidad de hacer realidad lo imposible. Solo de esta forma la IA entrará en una primavera perpetua.


1 https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1

2 https://link.springer.com/chapter/10.1007/978-3-030-22493-6_2

La red eléctrica del futuro será más robusta y eficiente

La red eléctrica del futuro será más robusta y eficiente

red eléctrica

El sector energético está experimentando una profunda transformación para dar respuesta a la necesidad de luchar contra el cambio climático y así contribuir a la sostenibilidad de la vida en nuestro planeta. Esto se está articulando a través de la llamada «Transición Energética», que implica dos grandes transformaciones en la red eléctrica. Por un lado, la tradicional generación centralizada se está viendo reemplazada por un número creciente de plantas de generación renovable distribuidas y situadas más cerca del consumidor final. Además, está aumentando el número de «autoconsumidores«, es decir, consumidores capaces de producir energía renovable, principalmente fotovoltaica, para su propio uso. En segundo lugar, se está asistiendo a un crecimiento de la demanda de energía eléctrica, con nuevas necesidades como la del vehículo eléctrico o la climatización de edificios.

Todo ello redunda en una mayor complejidad de la red eléctrica, especialmente la de distribución, pero también la de transmisión, porque el flujo de energía eléctrica ya no es unidireccional, sino bidireccional. Se hace imprescindible disponer de un sistema de gestión más flexible que aporte mayor eficacia al transporte y distribución de la energía eléctrica. Asimismo, los operadores de red necesitan nuevas tecnologías y herramientas para garantizar un servicio fiable y de calidad. Estos cambios, que ya forman parte del presente, son posibles gracias a la evolución de las redes eléctricas tradicionales hacia las redes inteligentes, también conocidas como «smart grids»

El concepto smart grid se refiere a una nueva característica de la red eléctrica: además de transportar energía, transporta datos. Para lograrlo son necesarias tecnologías digitales que faciliten la comunicación bidireccional entre el usuario y la red, herramientas informáticas y domóticas para la gestión de la flexibilidad de la demanda y los recursos distribuidos de generación y almacenamiento, así como la tecnología y equipamientos necesarios capaces de dar respuesta a la volátil generación renovable.

Una de las amenazas para garantizar el suministro adecuado y de calidad a los diferentes actores de la red de media y baja tensión son las averías. Es necesario disponer de los medios necesarios para localizarlas rápidamente, dando continuidad al suministro tras una reconfiguración de la red, siempre que esta sea útil para aliviar los efectos de la avería, en el tiempo más breve posible.

Existen dos índices para medir la calidad de suministro en un sistema eléctrico: el SAIDI (System Average Interruption Duration Index) y el SAIFI (System Average Interruption Frequency Index). En el índice SAIFI se tiene en cuenta el número de indisponibilidades por usuario, mientras que en el índice SAIDI se tiene en cuenta el tiempo acumulado de no disponibilidad. Estas indisponibilidades se generan como consecuencia de varios tipos de defectos entre los cuales los más frecuentes son los defectos de tierra y de fase, siendo los primeros los más repetitivos.

Cuando se produce un defecto a tierra en una red de distribución de media tensión, el interruptor automático de una de las salidas de la estación de transformación de alta a media tensión disparará por medio de la protección de defecto a tierra.

Posteriormente, y para descartar que el defecto sea transitorio, actuará la funcionalidad de reenganche, cerrando el interruptor. Si el defecto persiste, se volverá a producir el disparo hasta agotar el número de reenganches previsto. Si el defecto es permanente, la parte afectada de la red quedará sin servicio y habrá que localizar el defecto y reconfigurar la red para poder seguir dando servicio al mayor número de usuarios posible.

Tradicionalmente, tras la detección de un defecto permanente por parte de los equipos de telecontrol, es posible realizar una operación de reconfiguración a distancia desde el centro de control. Esta operación es llevada a cabo por un operador, siguiendo un protocolo definido y puede llevar varios minutos en el mejor de los casos.

Una red moderna y automatizada permitirá que este protocolo se realice sin la intervención del operador, de forma automática entre los equipos de telecontrol. A esta característica de la red se la conoce como self-healing, y permite que la red se configure de forma autónoma ante un defecto permanente, sin la intervención manual del centro de control. Esto acelera notablemente el tiempo de restablecimiento del servicio de suministro eléctrico.

CARTIF ha desarrollado, en el marco del proyecto INTERPRETER (H2020, GA#864360), una herramienta de ayuda dirigida a operadores de redes de media y baja tensión. Esta herramienta, conocida como GCOSH-TOOL, ayuda a evaluar distintos escenarios mediante la aplicación de distintos protocolos de actuación ante la aparición de uno o varios defectos en la red. Su funcionamiento se basa en proponer una secuencia de problemas de optimización con diferentes restricciones y funciones objetivo, lo que permite calcular la potencia que deberá ser entregada a cada cliente asegurando que se satisface la demanda. Para ello, será necesaria una reconfiguración de la red que permitirá asegurar el suministro eléctrico a la mayor cantidad posible de usuarios en el escenario escogido por el operador en función de objetivos técnicos y económicos.

Las redes inteligentes del futuro tendrán mayor flexibilidad y fiabilidad que las tradicionales y proporcionarán una mayor calidad de suministro de energía eléctrica a los usuarios. Estos estarán conectados en tiempo real, recibiendo y aportando información que les permitirá optimizar su propio consumo eléctrico y mejorar el funcionamiento del sistema global (gestión activa de la demanda). Por otro lado, la tendencia hacia la generación distribuida de fuentes renovables lleva a una estructura en forma de microrredes interconectadas entre sí que tendrán la capacidad de reconfigurarse de manera automática ante cualquier avería. La rápida evolución de la tecnología está permitiendo que estos cambios se produzcan muy deprisa, de modo que la llamada transición energética se está convirtiendo en una realidad, y ya disponemos de la infraestructura necesaria para reducir las emisiones de CO2, contribuyendo así a frenar el cambio climático.

La ciberseguridad en entornos industriales ¿estamos preparados? La defensa que toca…

La ciberseguridad en entornos industriales ¿estamos preparados? La defensa que toca…

Como ya comentamos en nuestro anterior post, las redes OT (Operation Technology) de las empresas no están exentas de sufrir ataques informáticos. Hasta hoy son múltiples los ataques sufridos por empresas industriales desde que se produjera en 2010 el primer ciberataque que tuviera repercusión directa en el mundo físico1, incidentes de seguridad que afectan a un amplio abanico de entidades que abarca desde grandes tecnológicas hasta proveedoras de productos finales2. Todas las infraestructuras industriales, y no solo las infraestructuras críticas, están en el punto de mira de los ciberdelincuentes o crackers, en los que el sector OT es en cierta forma «negligente», ya que casi el 90%de las vulnerabilidades y vectores de ataques presentes en un sistema industrial son identificables y explotables utilizando estrategias ampliamente conocidas por los atacantes, siendo el 71% de riesgo alto o crítico al poder paralizar parcial o totalmente la actividad de la empresa3.

Ante el panorama esbozado cabe hacerse una serie de preguntas ¿existen herramientas apropiadas y adaptadas a estos entornos OT? ¿pueden los expertos en ciberseguridad proteger el ámbito OT de la industria? La detección de las vulnerabilidades que afectan a los recursos asociados a las redes OT, elementos clave en la automatización de las plantas industriales, se presenta como una etapa de obligada presencia en cualquier test de penetración. Una vez que las vulnerabilidades han sido identificadas será posible tomar las medidas preventivas necesarias, adaptando las soluciones ya existentes y las buenas prácticas bien conocidas del entorno IT al mundo OT, y no realizando un traslado directo de las mismas.

Algunos intentos de adaptación a nivel de estándares son la IEC 62443, basada en el estándar ISA 99 y que establece el marco de referencia internacional de ciberseguridad en sistemas industriales, o la ISO/IEC 27019:2013, que proporciona principios rectores para la gestión de seguridad de la información aplicada a sistemas de control de procesos. En cuanto a herramientas concretas encontramos, entre otras, la plataforma ControlThings que es una distribución Linux específica para encontrar vulnerabilidades en sistemas de control industrial, sin olvidarnos de herramientas como las de inventariado de activos, diseñadas para poder ser aplicadas en entornos OT4 y entre las que se pueden citar IND de Cisco, eyesight de ForeScout (éstas últimas de pago) o GRASSMARLIN que, siendo open source, mapea de forma masiva la red y muestra visualmente la topología de los SCI/SCADA presentes en ésta. Aspectos susceptibles de ser atacados en un entorno OT de manera específica se pueden encontrar en bases de datos como la de MITTRE-ATT&CK.

Sin embargo, estos intentos de estandarización no son suficientes y se hace imprescindible seguir avanzando en distintos frentes apoyando iniciativas como las siguientes;

  • Permitir que los expertos del entorno OT tomen la iniciativa y aprendan a protegerse. Formarles en la forma correcta de configurar los dispositivos propios de estas redes, haciendo dicha configuración más simple para no expertos en IT y evitando así la posibilidad de realizar configuraciones erróneas por desconocimiento (simplificar la seguridad).
  • Mejorar la adaptación de las soluciones SIEM (Security Information and Event Management) a las redes OT, para que sean menos intrusivas que las actuales y aprendan a identificar patrones propios de las redes industriales, permitiendo una identificación temprana de situaciones anómalas .
  • Poner en prácticas nuevas formas de ciber proteger los sistemas industriales, no centradas en la actualización continua del software y/o la realización periódica de inversiones6.

Hasta no hace mucho, los sistemas OT han vivido desconectados del mundo exterior y por ello, con una falsa sensación de seguridad. Sin embargo la protección de estos entornos OT debe ser priorizada, así como la creación de nuevos perfiles profesionales en ciberseguridad capaces de entender las necesidades y particularidades de los entornos OT.


Autores del Post

Daniel Gómez (dangom@cartif.es)

Javier Román (javrom@cartif.es)

Marta Galende (margal@cartif.es)


1 https://www.businessinsider.es/10-anos-stuxnet-primer-ciberataque-mundo-fisico-657755

2 https://www.incibe-cert.es/alerta-temprana/bitacora-ciberseguridad

3 https://security.claroty.com/1H-vulnerability-report-2021

4 https://www.incibe-cert.es/guias-y-estudios/guias/guia-gestion-inventario-activos-sistemas-control-industrial

5 https://www.incibe-cert.es/blog/diseno-y-configuracion-ips-ids-y-siem-sistemas-control-industrial

La ciberseguridad en entornos industriales, ¿estamos preparados? Los ataques que vienen…

La ciberseguridad en entornos industriales, ¿estamos preparados? Los ataques que vienen…

Robos de identidad y datos de usuario, ransomware, phising, pharming o ataques de denegación de servicio, son términos que escuchamos cada vez más en los medios de comunicación1,2,3,4. El mundo hiperconectado en el que vivimos hace que las empresas como entidades productivas estén cada vez más expuestas a ser objeto de un delito cibernético5,6,7. Las campañas existentes para concienciar en ciberseguridad son muy diversas pero, ¿ cómo pueden las empresas blindarse ante todas estas amenazas sin llegar a comprometer sus objetivos finales de negocio?

Tradicionalmente la orquestación de la ciberseguridad en entornos industriales ha sido delegada casi en exclusiva al departamento IT de las empresas, que han centrado su trabajo en proteger las redes ofimáticas, aplicando estándares y normativas bien conocidas como: ISO/IEC 27001, ISO/IEC 15408, o la ISO/IEC 19790. Para estos equipos expertos en ciberseguridad, «no hay mejor defensa que un buen ataque». Esta frase del general chino Sun Tzu (autor de la obra «El Arte de la Guerra», considerada una obra maestra sobre la estrategia) subyace en el fondo de los conocidos como test de penetración (o pentesting). Los test de penetración son básicamente un conjunto de ataques simulados dirigidos a un sistema informático con la única finalidad de detectar posibles debilidades o vulnerabilidades para que sean corregidas y no puedan ser explotadas 8. ¿Y por qué son tan importantes estos test? Porque diversos estudios muestran que la mayoría de los ataques aprovechan vulnerabilidades ya conocidas y recogidas en bases de datos como las de CVE, OWASP o NIST que por diversas razones no son corregidas 9,10.

Dentro del sector IT algunas de las metodologías y marcos de auditorías de seguridad más conocidos para hacer pentesting son: Open Source Security Testing Methodology Manual (OSSTMM), Information Systems Security Assessment Framework (ISSAF), Open Web Application Security Project (OWASP), y Penetration Testing Execution Standard (PTES). Cada una de estas metodologías adopta una estrategia diferente para las pruebas de penetración en función del tipo de aplicativo a auditar (móvil nativo, web, infraestructura, …), siendo en este sentido complementarias.

ciberseguridad

A nivel más práctico, los equipos de IT disponen de una gran cantidad de herramientas para realizar estos test, tanto gratuitas y/o de código abierto como comerciales. Algunas de las más conocidas son: Metasploit, Community Edition, Nessus, Edición personal, Saint, Nmap, Netcat, Burp Suite, John the Ripper o Wireshark. La mayor parte de estas herramientas viene ya pre-instaladas en distribuciones específicas para realizar test de penetración como son Kali Linux, BlackArch Linux o Parrot Security.

Sin embargo, las redes ofimáticas a cargo del departamento IT no son las únicas existentes en una empresa industrial. Hoy en día cada vez son más los recursos utilizados en la producción (PLC, SCADA, …), normalmente interconectados por buses de campo compatibles con el protocolo TCP/IP de Internet, como por ejemplo PROFIENT o MODBUS TCP. Desde ellos, gracias a la función de enrutado disponible en PLC´ s de diversas marcas, es posible acceder mediante pasarelas (gateways) a segmentos de otros buses de campo a los que anteriormente no se podía acceder desde el exterior, como, por ejemplo, PROFIBUS11 . Esta interconexión entre las redes IT (Information Technology) y OT (Operation Technology), tan necesaria al hablar de Industria 4.0, aumenta las posibilidades que tiene la industria de ser objeto de ciberataque.

En la próxima entrega, hablaremos de cómo podemos defendernos de tal amenaza…


Autores del Post

Daniel Gómez (dangom@cartif.es)

Javier Román (javrom@cartif.es)

Marta Galende (margal@cartif.es)


1 https://elpais.com/economia/2021-11-11/un-ataque-informatico-obliga-a-paralizar-la-principal-planta-de-la-cervecera-damm.html

2 https://www.lavanguardia.com/tecnologia/20211108/7847465/ciberataque-mediamarkt.html

3 https://www.elespanol.com/omicrono/tecnologia/20211025/supermercado-tesco-hackeo-clientes-sin-pedidos-varios/622188010_0.html

4 https://www.elmundo.es/economia/2021/03/09/6047578dfc6c83411b8b4795.html

5 https://cincodias.elpais.com/cincodias/2021/07/21/companias/1626821663_803769.html

6 https://directivosygerentes.es/innovación/54-por-ciento-retailers-espanoles-sufrido-ciberataque

7 https://www.fortinet.com/lat/corporate/about-us/newsroom/press-releases/2021/fortinet-reporta-ataques-ransomware-multiplicado-diez-ultimo-ano

8 https://www.incibe.es/protege-tu-empresa/blog/el-pentesting-auditando-seguridad-tus-sistemas

9 https://owasp.org/Top10/

10 https://www.muycomputerpro.com/2021/11/11/ransomware-ataques-vulnerabilidades-empresas

11 https://support.industry.siemens.com/cs/document/584459/%C2%BFqu%C3%A9-m%C3%B3dulos-permiten-trabajar-con-la-funci%C3%B3n-s7-routing-en-subredes-s7-?dti=0&lc=es-ES

Tecnología Industrial al alcance de los ciudadanos: Cogeneración Residencial

Tecnología Industrial al alcance de los ciudadanos: Cogeneración Residencial

¿Sabes lo que es la cogeneración?

La cogeneración se refiere a la producción simultánea de electricidad y calor, nuestras dos grandes necesidades energéticas básicas. Los beneficios de estas tecnologías son múltiples:

  • Es un 40% más eficiente que producir electricidad y calor por separado.
  • Unido a este ahorro energético, las emisiones de CO2 y los costes de generación son menores.
  • Puede aprovechar recursos renovables como la biomasa y el biogás.
  • Mejora la seguridad del sistema, ya que permite generar la cantidad necesaria de electricidad y calor y absorber la variabilidad implícita de la generación renovable procedente de eólica y solar.
  • Los costes de transporte y distribución son reducidos, ya que generalmente la energía se consume en el mismo sitio en el que se produce.

Además de que la cogeneración tiene como objetivo cubrir las necesidades energéticas propias, podemos observar que, según el Informe del Sistema El´éctrico Español elaborado por Red Eléctrica de España correspondiente a 2019, es capaz de cubrir casi un 12% de la demanda española con solo un 5% de participación en la potencia instalada nacional. A nivel europeo, la cogeneración proporciona un 11% de la electricidad consumida y un 15% del calor.

También la Comisión Europea reconoce la necesidad de la presencia de la cogeneración en el sistema energético, citando en la Directiva de Eficiencia Energética que «la cogeneración de alta eficiencia tienen un potencial significativo para ahorrar energía primaria en la Unión» y la necesidad de que «los estados miembros fomenten la introducción de medidas y procedimientos para promover las instalaciones de cogeneración con una potencia térmica nominal total inferior a 5MW con el fin de fomentar la generación de energía distribuida».

Aun teniendo en cuenta todos los beneficios indicados, prácticamente solo se pueden encontrar este tipo de tecnologías en ámbitos industriales o grandes edificios del sector terciario. Por ello, un ámbito con gran potencial es el desarrollo de la micro-generación, es decir, sistemas de cogeneración de baja potencia (menor de 50 kW) que generen el calor y la electricidad necesaria para cubrir las necesidades energéticas de edificios residenciales. Este aspecto es clave tanto para el desarrollo de las Comunidades energéticas locales en las que la figura del consumidor pasivo se difumina como para la consecución de uno de los grandes objetivos medioambientales, la neutralidad climática.

Dentro de los sistemas de cogeneración actuales, podemos encontrar dos grandes grupos:

  • Motores de combustión interna convencionales acoplados a un generador eléctrico y del cual se recupera el calor de los gases de escape y de los sistemas de refrigeración. Suelen funcionar empleando gas natural o gasóleo como combustible, llegando a alcanzar rendimientos globales del 80-90%.
  • Sistemas de microturbinas compuestos por una turbina de gas en ciclo abierto en las que el aire es aspirado de la atmósfera, se comprime mediante un compresor rotativo para conducirlo a la cámara de combustión y posteriormente aprovechar la expansión en una turbina. La energía eléctrica se obtiene a partir de un alternador, mientras que el calor se recupera de los gases de escape. Llegan a tener rendimientos globales en torno al 90%. La diferencia fundamental respecto a los anteriores es que las turbinas están diseñadas para funcionar en régimen estacionario mientras que los motores permiten una regulación más amplia. Además, la temperatura de los gases de escape de las turbinas es más alta, estando habitualmente en torno a los 300-400ºC. El combustible empleado mayoritariamente es gas natural, pero en este caso es posible emplear otros más sostenibles como puede ser el biogás.

Como hemos visto, la gran mayoría de los sistemas actuales emplean combustibles fósiles en su funcionamiento, lo que no es adecuado de acuerdo a los compromisos ambientales adquiridos. En 2018 solo el 4% de la energía generada mediante cogeneración procedía de fuentes renovables como biocombustibles y residuos (La energía en España 208, MITECO)

Fuente:https://energia.gob.es/balances/Balances/LibrosEnergia/Libro-Energia-2018.pdf

Afortunadamente, existen tecnologías tanto en el mercado como en fase de desarrollo enfocadas a cubrir estas necesidades. En primer lugar, podemos nombrar la tecnología de generación fotovoltaica híbrida, capaz de generar tanto electricidad como agua caliente de baja temperatura (60-70ºC) aprovechable en los sistemas de climatización de los edificios. La infraestructura necesaria para la instalación de estos colectores no dista mucho de la empleada en la instalación habitual de paneles fotovoltaicos, incluyendo las tuberías necesarias para la conducción del agua de entrada y salida.

Fuente: https://solar2power.pt/photovoltaic-thermal-hybrid-solar-collector/

Otra de las tecnologías que está experimentando un gran crecimiento debido a su naturaleza estratégica es la pila de hidrógeno o pila de combustible. Este sistema aprovecha procesos electroquímicos para convertir un combustible, el hidrógeno, y un comburente, el oxígeno presente en el aire, en una corriente eléctrica y calor. La particularidad del hidrógeno como combustible es que presenta una gran densidad energética, puede transportarse a través de canalizaciones similares al gas natural (aunque bajo condiciones especiales) y puede ser generado a partir de la electrólisis del agua empleando para ello fuentes de energía renovables.

Fuente: https://www.cnh2.es/pilas-de-combustible/

Por supuesto, las tecnologías citadas pueden ser combinadas con otras para multiplicar sus posibilidades: bombas de calor tanto alimentadas con la energía eléctrica generada como empleando el calor generado para elevar su rendimiento, hibridación junto a sistemas de almacenamiento que permitan una gestión inteligente, etc.

CARTIF participa en diversos proyectos que integran sistemas de cogeneración en entornos residenciales:

  • SUNHORIZON: tiene como objetivo demostrar que la combinación apropiada de tecnologías como paneles solares (Fotovoltaico, híbridos, térmicos) y bombas de calor (compresor térmico, adsorción, reversible) gestionadas con un controlador con capacidades predictivas permite ahorrar energía, maximizar el uso de renovables, incrementar el autoconsumo, reducir la factura energética y reducir las emisiones de CO2.
  • REGENBy2: contribuimos al desarrollo de una nueva planta de energía integrada, capaz de convertir cualquier tipo de fuente térmica de energía renovable, de baja a alta temperatura, en electricidad, calefacción y/o refrigeración simultáneamente.
  • HysGRID+: cuyo objetivo es fomentar la cooperación de centros tecnológicos españoles con un elevado nivel de complementariedad con el fin último de investigar y desarrollar soluciones tecnológicas novedosas que faciliten la creación de comunidades energéticas locales (CEL) con balance neto positivo de alta eficiencia y basadas en sistemas híbridos de generación renovable y almacenamiento. En el contexto de este proyecto, CARTIF ha sido capaz de instalar dos bancos de ensayos: uno para testar bombas de calor de hasta 100 kW térmicos, y otro para caracterizar el comportamiento de paneles solares híbridos PVT.
  • H24NewAge: desarrollamos tecnologías avanzadas a lo largo de toda la cadena de valor del hidrógeno para finalmente crear una red de infraestructuras para dar servicio a las empresas y como demostración de las tecnologías del hidrógeno desarrolladas. El objetivo final es que el proyecto sea un referente para el tejido empresarial español facilitando una transferencia de conocimiento bidireccional y adaptable. Otra de las acciones es la investigación de la aplicación de pilas de combustible en microgeneración residencial.

«NON-EXHAUST PARTICLES»: Las Grandes Desconocidas del Transporte por Carretera

«NON-EXHAUST PARTICLES»: Las Grandes Desconocidas del Transporte por Carretera

El transporte por carretera es la principal fuente de emisión de partículas en los entornos urbanos y una de las más importantes a nivel global. Consciente de la gravedad del problema, la Unión Europea viene estableciendo límites, cada vez más restrictivos, para las emisiones de escape de los motores de combustión interna en vehículos nuevos, a través de la normativa europea sobre emisiones (Normas EURO), que tanto temen los fabricantes de vehículos. Esta normativa centrada en los vehículos, y otras destinadas al control de las emisiones producidas en la industria y en las centrales térmicas de generación eléctrica, han hecho posible que la concentración de partículas en entornos urbanos se haya reducido de manera notable en los últimos 15 años. Es justo decir, que parte de esa reducción ha sido también debida al uso creciente de las energías renovables, como por ejemplo la energía eólica, fotovoltaica o solar térmica. Por su parte, la biomasa, a pesar de ser una fuente de energía renovable con una huella de carbono casi nula, contribuye a la emisión de partículas debido al proceso de combustión que permite su aprovechamiento energético. Por último, la energía nuclear, que en las próximas semanas pasará a ser considerada «energía verde» por la Comisión Europea, podría contribuir de manera eficaz no solo a la reducción de las emisiones de CO2, sino también a las emisiones de partículas.

A pesar de que, como se ha dicho, la situación actual es mejor que la de hace 15 años, no es menos cierto que con relativa frecuencia se superan los límites de concentración de partículas establecidos por la Organización Mundial de la Salud (10 μg/m3 para partículas <2,5 μm) en muchos núcleos urbanos europeos.

Fuente: https://www.eea.europa.eu/themes/air/urban-air-quality/european-city-air-quality-viewer

¿Cómo se clasifican las nanopartículas y cuáles son sus riesgos asociados?

Las partículas atmosféricas, independientemente de su origen natural o antropogénico, se clasifican en partículas gruesas PM10 (2,5 -10 μm), finas PM2,5 (0,1 – 2,5 μm) y ultrafinas PM0,1 (<0,1 μm). Según la OMS las partículas gruesas PM10 pueden penetrar y alojarse profundamente dentro de los pulmones, mientras que las partículas finas PM2,5 suponen un mayor riesgo, pues pueden atravesar la barrera pulmonar y entrar en el sistema sanguíneo. Las partículas ultrafinas PM0,1 son capaces de penetrar en órganos vitales como el hígado o el cerebro, causando procesos inflamatorios y oxidativos, con efectos aún poco conocidos.

Numerosos estudios científicos llevados a cabo en las últimas dos décadas relacionan los efectos a corto plazo del incremento de la concentración de partículas con incrementos en la mortalidad diaria e ingresos hospitalarios. Otros estudios alertan sobre el alto contenido de hidrocarburos aromáticos policíclicos (PAHs) que se encuentran adheridos a la fracción de partículas PM2,5 provenientes de los procesos de combustión. Al menos 13 de los compuestos que forman la familia de los PAHs han sido reconocidos como carcinogénicos por la OMS. Esta misma organización afirma que, además de cáncer, la fracción de partículas PM2,5 causa enfermedades cardiovasculares y respiratorias siendo la causa de 400.000 muertes prematuras solo en Europa.

Fuente: https://www.elnorte.com

¿Qué son las partículas no provenientes de gases de escape (NEE- Non-Exhaust Emissions) y cuál es su contribución a las emisiones del transporte por carretera?

Una vez introducida la problemática producida por las emisiones de partículas, así como sus fuentes, nos centraremos en las partículas NEE, es decir, aquellas emitidas por vehículos pero que no provienen de los gases de escape. Estas partículas son originadas a través del desgaste producido por el rozamiento entre pastillas y discos de freno, y entre los neumáticos y la superficie de la carretera.

A diferencia de lo que sucede con las emisiones de partículas en los gases de escape, en la actualidad no existe ninguna norma que limite la emisión de partículas NEE, de hecho, la mayor parte de la sociedad ni siquiera es consciente de su existencia.

Pero, ¿la contribución de las partículas NEE es representativa si la comparamos con la de los gases de escape?

Por sorprendente que pueda parecer, la contribución de las partículas NEE no solo es representativa, sino que desde hace algunos años es claramente superior. Datos publicados por el Inventario de Emisiones Atmosféricas Nacionales del Reino Unido (NAEI) revelan que mientras que las partículas de escape se han reducido de manera notable en los últimos años, las partículas NEE han aumentado y se espera que sigan haciéndolo en el futuro. La fuente citada anteriormente afirma que, de las partículas primarias emitidas por el transporte por carretera, el 60% de la PM 2,5 y el 73% de la PM 10 fueron debidas a partículas NEE (medidas llevadas a cabo en el Reino Unido durante el año 2016). Dichos porcentajes continúan creciendo a medida que las emisiones de escape descienden, tal y como presenta el gráfico elaborado por el NAEI.

Fuente: https://uk-air.defra.gov.uk

¿Y qué pasa con los vehículos cero emisiones?

La contaminación por partículas es especialmente problemática en los entornos urbanos, por ello se considera que la electromovilidad puede ayudar decisivamente a combatir este problema. Sin embargo, debido al peso de las baterías, estos vehículos tienen una masa notablemente superior a la de un coche equivalente con motor de combustión interna, lo que implica mayores emisiones de partículas NEE debido al desgaste de los neumáticos y de la superficie de la carretera. Estas mayores emisiones son de algún modo compensadas por las menores emisiones producidas por el doble sistema de frenado regenerativo/mecánico de los vehículos eléctricos e híbridos. En la actualidad el balance neto entre la reducción de partículas de frenado y el incremento de partículas producidas por la carretera y los neumáticos de los vehículos eléctricos no está cuantificado, pero lo que es evidente, es que estos vehículos producen un nivel de emisiones de partículas NEE, al menos del mismo orden de magnitud al de los coches convencionales.

Por tanto, la etiqueta de «cero emisiones» es en cierto modo, sino en su totalidad, engañosa para el consumidor. Más aún si se tiene en cuenta que el 40% de la energía eléctrica generada en España en el año 2019,provino de centrales térmicas.

CARTIF investiga para reducir las emisiones de partículas NEE

CARTIF, consciente de la problemática de estas emisiones de partículas, ha participado en una propuesta de proyecto del programa europeo Horizon Europe enfocado a estudiar la magnitud, causas, efectos de las emisiones de partículas NEE, así como en desarrollar soluciones que eviten, o al menos reduzcan, la emisión de las mismas. Dicha propuesta se centra en flotas de vehículos de reparto y en vehículos de transporte público como los autobuses y los metros, llevándose a cabo parte de las pruebas de campo en la ciudad de Valladolid. Si dicho proyecto es finalmente financiado por la Comisión Europea, CARTIF dedicará su mejor empeño a la búsqueda de soluciones que permitan reducir las emisiones de partículas NEE, un problema cuyos efectos perjudiciales son bien conocidos, a pesar de ser ignorado por la mayor parte de la sociedad.