¿Alguna vez te has preguntado cómo podría ser un mundo en el que el almacenamiento de energía renovable sea eficiente y accesible?
Uno de los retos a los que se tiene que enfrentar la sociedad para conseguir una descarbonización efectiva es el aumento de la generación y penetración de las energías renovables. A pesar del avance experimentado, la intermitencia de fuentes como la solar y eólica, junto con la necesidad de optimizar sistemas complejos, limita el potencial de estas energías. Además, los desarrolladores de tecnología de almacenamiento energético enfrentan riesgos elevados al probar nuevos dispositivos en entornos cambiantes que pueden limitar la información obtenida.
En CARTIF disponemos de un banco de ensayos multi-sistema que permite almacenar dichos potenciales excedentes en diferentes formatos: baterías, hidrógeno y calor. Además de poder evaluar la cadena de transformación en cada uno de los casos, se puede caracterizar su comportamiento frente a variaciones en la demanda, evaluando su comportamiento dinámico.
Está diseñado para replicar escenarios energéticos reales, de forma que ofrece un entorno único donde las empresas pueden validar estrategias y dispositivos con confianza. Para ellos destacamos algunas características:
Tecnología avanzada: Incluye pila de combustible PEM, electrolizador AEM, baterías eléctricas y almacenamiento de hidrogeno en hidruros metálicos.
Simulación realista: Capacidad para emular perfiles de generación y demanda energética al estar interconectado con un sistema de adquisición de datos.
Control inteligente: Incorpora un sistema de control multinivel que optimiza la operación en tiempo real y permite analizar su operación a largo plazo.
¿Cómo podrían las empresas energéticas maximizar la eficiencia de sus sistemas?
Aquí es donde nuestro banco de ensayos entra en juego. Estas son algunas de sus ventajas clave:
Innovación acelerada: Se han desarrollado modelos matemáticos con los que poder escalar y ver las prestaciones que se tendrían con instalaciones más grandes.
Mitigación de riesgos: Permite una reducción del riesgo del escalado tecnológico, ya que se pueden validar tecnologías nuevas y reducir los costes de desarrollo al prever posibles errores.
Eficiencia energética superior: Con las pruebas realizadas simulando su funcionamiento en el sector residencial, se ha aprovechado hasta un 90% de los excedentes energéticos generados. permitiendo reducir picos de demanda, la potencia base instalada y la dependencia de la red eléctrica hasta en un 50%.
Cumplimiento normativo: La información extraída también puede ser usada para garantizar el cumplimiento de la legislación a nivel ambiental y de seguridad.
Banco de ensayos multi-sistema CARTIF
¿Por qué deberías interesarte en esta solución?
El sector energético está inmerso en una transición crítica hacia fuentes limpias. Las decisiones que tomes ahora podrían determinar el éxito de tus proyectos en los próximos años. Nuestro banco de ensayos te ofrece la seguridad y flexibilidad necesarias para liderar esta revolución.
¡Únete a la transformación! Si eres una empresa energética que busca optimizar recursos o un desarrollador que necesita validar sus productos, este banco de ensayos es para ti.
Descubre el poder de la innovación controlada. Maximiza tus sistemas, reduce riesgos y lidera el camino hacia un futuro energético sostenible.
¡Contacta con nosotros y da el siguiente paso hacia la excelencia tecnológica!
Luis Ángel Bujedo. Ingeniero industrial. Trabaja en eficiencia energética e integración de renovables en edificación y procesos industriales, especialmente sobre aplicaciones fotovoltaicas, monitorización y control de instalaciones solares y dimensionado e identificación de instalaciones de frío.
Tres problemas, una sola respuesta: nexo agua-energía-alimentos
Este año hemos vivido situaciones tan diversas como un apagón generalizado que nos dejó varias horas sin luz y servicios básicos, una época de intensas lluvias que, si bien nos han permitido disponer de agua suficiente, también han provocado DANAs en ciertas regiones, y olas de calor que han llevado a incendios y sequías que afectan a bosques y tierras de cultivo.
Si todos estos eventos nos están suponiendo un gran quebradero de cabeza a nosotros, que vivimos en un país social y tecnológicamente desarrollado, con capacidad de prevención y actuación, es lógico suponer que en otros contextos con muchas menos posibilidades sus impactos serán exponencialmente más dañinos.
Un claro ejemplo de ello es el continente africano, el cual, a pesar de disponer de un vasto abanico de recursos naturales, se enfrenta constantemente a desafíos energéticos, alimenticios y de gestión de recursos. Para más inri, su actual y futuro desarrollo económico y demográfico no hacen sino ahondar más en dichos problemas, pues un mayor crecimiento social implica mayores demandas de electricidad, agua y comida.
Todo está conectado (aunque no lo parezca)
Cuando sufrimos una sequía, nuestra mente suele centrarse en la falta de agua para beber o regar los cultivos. Sin embargo, una sequía también puede implicar menos producción hidroeléctrica y, por tanto, más presión sobre la red y los precios de la electricidad. Si se reducen las cosechas por falta de agua o calor extremo, la producción de alimentos se desploma y, consecuentemente, sus precios se disparan. Si un corte de electricidad impide bombear agua o conservar alimentos, el problema se agrava.
Esta red de interdependencias no es casualidad. Agua, energía y alimentación forman un sistema interconectado donde cualquier cambio en uno de los elementos puede desencadenar efectos en los demás. Por eso, desde hace años, se promueve el enfoque conocido como Metodología NEXO Agua-Energía-Alimentos (o WEF Nexus Methodology, por sus siglas en inglés).
¿Qué es el enfoque NEXO?
El NEXO propone, al igual que múltiples teorías, que la mejor manera de abordar los retos relacionados con los recursos naturales es dejar atrás el pensamiento tradicional de silos (entender cada recurso como un ente individual, separado del resto) y hacerlo de manera integrada, entendiéndolos como sistemas complejos e interconectados en el que actuar sobre uno de ellos va a afectar a otro, ya sea de forma negativa o positiva. Este enfoque metodológico sistémico analiza cómo interactúan entre sí el agua, la energía y los alimentos, incluyendo a su vez la influencia de otros factores asociados como pueden ser la economía, la demografía, el cambio climático, etc.
En vez de pensar “¿cómo mejoramos la agricultura?” o “¿cómo garantizamos el suministro eléctrico?”, el enfoque NEXO nos lleva a preguntarnos cómo podemos garantizar el acceso sostenible a los tres recursos a la vez, sin perjudicar a ninguno y maximizando los beneficios conjuntos. Este enfoque permite anticipar conflictos, optimizar recursos y tomar decisiones más equilibradas en contextos de alta complejidad.
Modelar para entender (y para decidir mejor)
Pero claro, entender y predecir estas relaciones no es fácil. ¿Cómo se mide el impacto de una nueva presa en la producción agrícola? ¿Qué efecto tiene un aumento en el precio del combustible sobre el uso del agua en una región? ¿Cómo influye el crecimiento urbano en la seguridad alimentaria?
Para responder a estas preguntas se necesita estudiar cómo han funcionado dichas relaciones en el pasado, lo cual se consigue mediante datos históricos reales que sirven para alimentar modelos: herramientas que representen digitalmente las relaciones entre los distintos elementos del sistema. Estos modelos se nutren de valores históricos para simular diferentes escenarios futuros que permiten analizar los efectos de distintas decisiones políticas o estratégicas. No buscan ofrecer una única respuesta, sino crear un marco para evaluar alternativas y tomar decisiones informadas.
África como laboratorio real: el caso de ONEPlanET
Bajo este enfoque nace el Proyecto ONEPlanET, del que CARTIF es socio y parte fundamental. Enmarcado en el programa de investigación Horizonte Europa, ONEPlanET comenzó en noviembre de 2022 y tendrá su evento final el próximo mes de octubre en Cabo Verde. Su principal objetivo es contribuir al desarrollo sostenible en África mediante la creación de un marco de modelado WEF Nexus común, el cual permita simular y evaluar diferentes alternativas políticas y de gestión de recursos. Para ello se han elegido como casos de estudio tres cuencas fluviales: la cuenca del Inkomati-Usuthu (Sudáfrica), la cuenca del río Bani (Mali-Costa de Marfil) y la del río Songwe (Tanzania-Malawi).
Las etapas iniciales consistieron en el estudio en profundidad de los casos de estudio, organizando workshops presenciales con actores locales (ONGs, políticos, universidades…). Posteriormente comenzaron los apartados más técnicos que involucraron la caracterización de los modelos específicos para cada piloto, la recogida de datos para alimentarlos, y el desarrollo de los propios modelos y de sus herramientas de visualización. Actualmente, la labor se centra en la presentación y accesibilidad de los resultados. Para ello, se han diseñado dos vías: una herramienta online orientada a usuarios técnicos y un juego de mesa para sensibilizar a públicos más amplios sobre los desafíos del nexo.
CARTIF ha participado en todas las etapas del proyecto: desde los workshops con organizaciones locales y la recopilación de datos, hasta la creación de los modelos y el desarrollo de las dos alternativas de visualización de los resultados.
Una herramienta para entender el presente y diseñar el futuro
Aunque ONEPlanET se desarrolla en África, el enfoque NEXO y las herramientas de modelado que promueve son replicables en cualquier parte del mundo y a cualquier escala, siempre que se disponga de los datos requeridos. En un contexto global cada vez más interdependiente, marcado por el cambio climático, la presión sobre los recursos y la creciente incertidumbre, entender cómo interactúan el agua, la energía y la alimentación es más urgente que nunca.
Porque los desafíos del futuro y del presente no vienen en compartimentos estancos. Y tampoco deberían hacerlo las soluciones.
En sectores tan diversos como la construcción, la logística, el patrimonio o la industria, el Internet de las Cosas (IoT) se ha convertido en un factor clave para impulsar la digitalización, mejorar la eficiencia y abrir nuevas oportunidades de innovación.
Cuando se aborda el diseño de un dispositivo electrónico, la atención suele centrarse en los componentes más importantes y destacados, como procesadores, sensores o módulos de comunicación. Sin embargo, la placa de circuito impreso (PCB, por sus siglas en inglés) constituye un elemento clave, pues su diseño condiciona de manera decisiva el correcto funcionamiento, la eficiencia y la fiabilidad del sistema en su conjunto.
La eficiencia energética es un pilar fundamental en el desarrollo de cualquier equipo. Una PCB bien diseñada permite una transmisión óptima de la energía que minimiza las pérdidas asociadas a una resistencia excesiva en las pistas de cobre y una mala organización de los componentes. Si las señales se ven obligadas a recorrer trayectos innecesariamente largos o por pistas demasiado estrechas, como resultado, aumenta la generación de calor, el consumo energético se incrementa y la vida útil del dispositivo se reduce.
La organización de los elementos en la PCB es otro aspecto crucial. En un mismo circuito coexisten funciones muy diversas, como la distribución de la alimentación eléctrica, la transmisión de señales digitales o la gestión de señales analógicas de alta sensibilidad. Para obtener un flujo de señal limpio y estable es imprescindible que estas funciones estén correctamente aisladas unas de otras, permitiendo al dispositivo un funcionamiento predecible y sin errores.
«La organización de los elementos en la PCB es otro aspecto crucial. En un mismo circuito coexisten funciones muy diversas que deben estar correctamente aisladas para obtener un flujo de señal limpio y estable»
No menos determinante resulta la protección frente a interferencias electromagnéticas. En el entorno actual, marcado por la proliferación de comunicaciones inalámbricas, radiodifusión o maquinaría industrial, los dispositivos están expuestos a todo tipo de perturbaciones externas. Estas pueden generar ruido e interferencias en las señales, e incluso pueden provocar sobretensiones capaces de dañar los componentes y las pistas. Además, un mal diseño puede convertir a la PCB en una fuente de interferencias para sí misma como para los dispositivos circundantes. La aplicación de técnicas como los planos de tierra continuos, un apilamiento de capas compacto, rutas de señal reducidas y elementos auxiliares de filtrado, es esencial para mitigar todos estos riesgos.
Conscientes de la importancia de estos aspectos, en CARTIF aplicamos estos principios desde la fase de prototipado, anticipando su adaptación a procesos de industrialización futura. En el caso del proyecto BATERURGIA, permitió desarrollar un dispositivo de monitorización y avisos de alerta en el transporte y almacenamiento de baterías de vehículos eléctricos. De forma análoga, en el proyecto AUTOLOG, posibilitó la creación de un dispositivo integrado en vehículos industriales de guiado automático, orientado a la recopilación de datos logísticos con el fin de mejorar la trazabilidad de los procesos y optimizar las rutas de transporte.
Innovar no es solo tener una buena idea. Es pelear por ella cuando nadie más lo hace. Es darle forma cuando aún es intangible, es fallar cien veces hasta que, de repente, algo empieza a brillar.
Tendemos a pensar cuando hablamos de innovación, que gracias a la aparición de una idea genial hemos resuelto ese pequeño objetivo o problema o, en otras ocasiones, un gran problema que puede transformar el mundo. Lo cierto es que ninguna idea genial va muy lejos si no es por personas que, con gran esfuerzo y perseverancia, consiguen «materializar» esa idea genial.
Las innovaciones pueden surgir en cualquier rincón de una organización. A menudo, los niveles directivos tienen más facilidad para convertir una intuición en una línea de trabajo, pero también es común que una buena idea emerja desde el equipo técnico, producción, calidad o incluso administración. El verdadero reto es lograr que esa idea sobreviva a todos los obstáculos que implica convertirse en realidad. Y son muchos los obstáculos, desde los compañeros más cercanos, directivos que no apoyan la idea porque es más cómodo seguir en la zona de confort, hasta obtener financiación interna o externa. Es decir, el reto de innovar en muchas ocasiones es sobrevivir al esfuerzo de pasar de idea a realidad patente.
«El reto de innovar en muchas ocasiones es sobrevivir al esfuerzo de pasar de idea a realidad patente».
La historia está llena de ideas brillantes que murieron por falta de perseverancia. Pero también de proyectos que nacieron, no porque fueron evidentes o perfectos, sino porque alguien insistió más allá de lo razonable. En contadas ocasiones estas ideas y personas que las impulsan cambian el mundo que conocemos (innovaciones disruptivas1).
Para plasmar con hechos reales cómo las ideas geniales cambian el mundo, hablemos de una de las historias más impactantes sobre innovación, el premio Nobel de Física en 2014 concedido a Isamu Akasaki, Hiroshi Amano y Shuji Nakamura porla invención del LED AZUL. Ese pequeño invento que hace que a día de hoy tengamos finas pantallas LED, y gracias a eso me leas desde tu portátil, móvil o tablet (hay decenas de aplicaciones más gracias a este invento).
Fuente: La Vanguardia. https://www.lavanguardia.com/ciencia/20141007/54416831597/nobel-fisica-2014-akasaki-amano-nakamura.html
La historia del LED AZUL
Durante décadas, se lograron LEDs rojos, verdes y amarillos. Pero no azules. Y sin el azul, no se podía crear luz blanca eficiente, ni pantallas LED, ni proyectores de bajo consumo. Las principales empresas y centros de investigación del mundo lo intentaron y fracasaron. Era, simplemente, demasiado difícil.
El reto estaba en el material base. El nitruro de galio (GaN) era la mejor opción, pero era muy complejo de sintetizar y dopar. Los cristales eran defectuosos. La emisión de luz era inestable. Muchos lo intentaron y todos se rindieron.
Todos, excepto tres personas: Isamu Akasaki, Hiroshi Amano y Shuji Nakamura.
Akasaki y Amano, desde la Universidad de Nagoya, comenzaron a experimentar en los años 80.
Nakamura, un ingeniero en una pequeña empresa japonesa llamada Nichia Corporation, continuó sus investigaciones de forma casi autodidacta, contra la opinión de su entorno.
Durante años trabajaron con escasos recursos, sin visibilidad, sufriendo fracasos constantes y rechazo por parte de la comunidad científica. Pero persistieron.
En 1993, Nakamura logró finalmente desarrollar el primer LED azul de alta eficiencia y uso comercial. Aquella luz azul no solo cambió la iluminación, sino que abrió paso a nuevas tecnologías sostenibles, más duraderas y eficientes. En 2014, los tres recibieron el Premio Nobel de Física por una innovación que tardó 30 años en ver la luz… literalmente.
Os animaría a releer la historia de esta invención más en detalle, porque realmente es un gran ejemplo de cómo la perseverancia y esfuerzo pueden literalmente cambiar el mundo para mejor. Además, podemos aprender valiosas lecciones de esta historia:
La mayoría de las empresas abandonan una idea si no hay resultados en 6 meses. El LED azul tardó más de una década en funcionar, y décadas en ser reconocido.
Entender la innovación como maratón, no como un sprint.
La verdadera innovación requiere más de esfuerzo que de genialidad.
Hay que sostener la innovación, incluso cuando no hay resultados.
» En las organizaciones deberíamos valorar más a quienes insisten con rigor y convicción. No todas las ideas van a cambiar el mundopero, muchas que lo harían, nunca lo logran porque nadie lucha lo suficiente por ellas. Como el LED azul, quizás la próxima gran innovación de tu empresa no esté en la idea más visible, sino en esa persona que sigue creyendo en ella, incluso cuando todo falla.»
Porque al final, innovar no es solo tener razón, es tener la determinación de demostrarla cuando aún nadie la ve.
1. Innovaciones disruptivas
Un proceso mediante el cual se introducen productos, servicios o modelos de negocio que transforman radicalmente un mercado existente, creando nuevas formas de satisfacer necesidades o incluso creando mercados completamente nuevos
Si a mi abuela le hubieran hablado de marketing verde, habría levantado una ceja diciendo: “Eso suena a que te quieren vender lo de siempre… pero con olor a pino”.
Y si le contara el enredo que tuvo Ursula von der Leyen al tener que reafirmar su apoyo a la Directiva de Alegaciones Verdes, tras días de confusión en su equipo, me diría: “Pues lo típico, Laura… dicen una cosa por la mañana, la contraria por la tarde, y al final no sabes si están hablando de sostenibilidad o de horóscopos”
Y no le faltaría razón.
En los últimos años, la sostenibilidad ambiental se ha convertido en una potente herramienta de marketing, aunque no siempre respaldada por acciones reales. Para poner freno a las prácticas de comunicación engañosas conocidas como “lavado verde” o greenwashing, la Unión Europea ha impulsado dos directivas clave: la Directiva 2024/825 de Empoderamiento de los Consumidores, ya aprobada y pendiente de transposición en España, y la Directiva de Alegaciones Verdes (Green Claims), que establece criterios específicos para evitar afirmaciones ambientales sin fundamento, cuya aplicación estaba prevista a partir del 27 de septiembre de 2026. Y tenemos que decir estaba porque, a pocos días de su aprobación final, la propuesta ha quedado en el aire por falta de consenso político y está ahora a la espera de aclaraciones y de un acuerdo entre los Estados miembros.
Esta directiva pretende poner orden en un ecosistema de etiquetas verdes que ha crecido sin control. Su objetivo: exigir que cualquier alegación ambiental (eso de “100% reciclado” o “carbon neutral”) esté verificada y respaldada con datos sólidos, como un Análisis de Ciclo de Vida (ACV). En su versión más ambiciosa, incluso obligaba al uso de metodologías armonizadas como la Huella Ambiental de Producto (PEF) o de Organización (OEF). Sin embargo, las negociaciones políticas han ido rebajando el tono, y ahora está en riesgo de quedar en papel mojado. Una lástima, porque la ciudadanía necesita protección e información frente al greenwashing y las empresas honestas, reconocimiento. No es una norma pensada para molestarlas. Al contrario.
«La ciudadanía necesita protección e información frente al greenwashing y las empresas honestas, reconocimiento»
Mientras tanto, la presión social y la vigilancia de organismos como la Organización Europea del Consumo ya están surtiendo efecto. Prueba de ello son los casos recientes de Coca-Cola y Adidas, que han tenido que recular en sus mensajes “verdes” tras investigaciones por publicidad engañosa.
Fuente: Publicación Linkedin de El Empaque Conversión.
En el caso de Coca-Cola, una denuncia colectiva presentada por organizaciones europeas de consumidores y medioambiente llevó a que la Comisión Europea interviniera. El gigante de las bebidas se comprometió a cambiar frases como “hecha con plástico 100% reciclado”, ya que solo aplicaban al cuerpo de la botella, no a la tapa ni a la etiqueta. Por su parte, Adidas tuvo que dejar de promocionar una línea de zapatillas como “más sostenibles” sin explicar con qué criterios lo eran ni aportar evidencia alguna. Ambas situaciones dejan claro que ya no basta con añadir una hoja verde o el símbolo del reciclaje.
Así que, mientras en algunos sitios se confunde sostenibilidad ambiental con decoración, en CARTIF aportamos una base técnica rigurosa para acompañar a las empresas en su transición hacia modelos medioambientalmente más sostenibles y transparentes.
Desde nuestro equipo de sostenibilidad y neutralidad climática, llevamos años colaborando con empresas comprometidas con la mejora continua, que desean fundamentar sus decisiones en datos verificables.
¿Y cómo lo hacemos? Pues ni con bolas de cristal ni con hojas verdes de parra, sino:
Aplicando Análisis de Ciclo de Vida (ACV): porque saber el impacto ambiental de un producto no es cuestión de intuición, sino de cálculos rigurosos según estándares ISO.
Calculando huellas ambientales: empezando por la huella de carbono (la más mediática de la familia) pero sin olvidarnos de las demás: de acidificación, uso del suelo… Para tomar decisiones que pesen lo justo (en impacto, no en excusas).
Fomentando ecoetiquetados y la comunicación ambiental: porque decir la verdad también se entrena.
Ayudando a incorporar estrategias de ecodiseño: porque si el impacto ambiental no se tiene en cuenta desde la fase de diseño, poco puede hacer una etiqueta. Aquí es donde la sostenibilidad se cuela en los planos, en los materiales, en los embalajes… y sí, también en las decisiones con más estilo (y menos residuos).
Combinando todas estas herramientas, nuestra misión es apoyar a las empresas en su camino hacia modelos no solo ambientalmente más sostenibles, sino también más honestos y coherentes. Las acompañamos a medir, mejorar y comunicar (siempre en este orden).Queremos que puedan contar su historia de sostenibilidad con una sonrisa. Que su storytelling tenga coherencia con su storydoing.
Y a Ursula le pedimos una cosa sencilla (pero urgente): que no deje fuera del juego a quienes están haciendo las cosas bien. A esas empresas que apuestan por medir, mejorar y comunicar con transparencia, y que luego tienen que competir con quien vende humo verde.
Porque sí, se puede comunicar sostenibilidad sin caer en el maquillaje verde. Solo hace falta rigor, compromiso y un poquito de sentido común. Como el que tenía mi abuela.
A estas alturas de la película, seguramente estamos ya cansados de escuchar todo tipo de ideas, algunas bastante pintorescas, sobre las causas delapagón eléctrico del 28 de abril. Lo que parece menos atractivo, o con menos tirón mediático, es hablar de las soluciones técnicas que hicieron posible volver a iluminar una península con más de 50 millones de personas. Precisamente ese es el propósito de los siguientes párrafos.
Aunque ya disponemos de un esquema oficial sobre las causas de este blackout en nuestro sistema eléctrico, hay una palabra que resuena en todo este conglomerado de despropósitos: frecuencia. En el contexto eléctrico, la frecuencia representa la velocidad con la que la corriente alterna cambia de polaridad (de positivo a negativo y viceversa), y debe mantenerse siempre constante, en el caso peninsular 50 Hz, ya que toda la infraestructura de red está diseñada para operar bajo esas condiciones inflexibles.
Esta frecuencia, sin embargo, ha sido objeto de debate en los medios, en ocasiones para cuestionar el uso de energías renovables y en otras para ensalzar el uso indiscriminado de combustibles fósiles. Pero hay una fuente renovable menos mediática, silenciosa pero esencial, que juega un papel clave en el control de la frecuencia: la hidráulica.
Al igual que ocurre con otras tecnologías como las centrales nucleares o las turbinas de gas, la energía hidráulica genera electricidad mediante la rotación sincronizada de elementos mecánicos, lo que le permite contribuir de forma directa a mantener la frecuencia en los 50 Hz requeridos. Por el contrario, tecnologías como la solar fotovoltaica o la eólica (aunque imprescindibles en la transición energética) no tienen esa capacidad de regulación directa y, además, pueden ser muy sensibles ante desviaciones de frecuencia por su electrónica asociada. Una pescadilla que se muerde la cola.
Pero lo que realmente hizo protagonista a la hidráulica tras el apagón fue su capacidad de black start o arranque en negro: es decir, poner en marcha una instalación eléctrica sin depender de la red. Solo unas pocas centrales en el sistema tienen esta capacidad, y en España la mayoría son centrales hidroeléctricas con embalse. Gracias a su diseño, pueden arrancar sus turbinas usando únicamente baterías auxiliares o generadores diésel, aprovechando directamente la presión del agua embalsada.
Eso fue exactamente lo que ocurrió tras el “cero eléctrico” del 28-A. Centrales como Aldeadávila, Ricobayo o Riba-roja d’Ebre comenzaron a funcionar de forma autónoma, inyectando los primeros kilovatios a una red completamente vacía. Red Eléctrica de España (REE) gestionó estas instalaciones para formar pequeñas “islas eléctricas” locales, donde se estabilizó tanto la frecuencia como la tensión, y sobre las que posteriormente se reconstruyó todo el sistema interconectado.
En este escenario, uno de los mayores retos no era solo volver a generar electricidad, sino garantizar la calidad del suministro. Y eso, fundamentalmente, significa mantener frecuencia y tensión dentro de unos márgenes muy concretos. Para lograrlo, los sistemas eléctricos de potencia cuentan con mecanismos de balance tales como la regulación primaria, secundaria y terciaria, entre otros, que reaccionan en distintas escalas temporales ante desequilibrios entre generación y demanda.
Generada con IA
El primer paso fue activar la regulación primaria, que reacciona de forma inmediata a las desviaciones de frecuencia. En este caso, las centrales hidráulicas operando en isla fueron capaces de mantener de forma autónoma la frecuencia en sus subredes locales. Una vez estabilizadas, entró en juego la regulación secundaria (AGC) desde el centro de control de REE, afinando aún más la frecuencia hasta devolverla al valor nominal de 50 Hz, y apoyando a la primaria. Esta fase fue posible gracias a la comunicación remota y la alta capacidad de respuesta de las turbinas hidráulicas.
Conforme más zonas iban recuperando tensión, las plantas hidráulicas incrementaban su potencia o cedían carga a otras tecnologías, como los ciclos combinados de gas, lo que permitió liberar reservas a través de la regulación terciaria, que también activó plantas en modo bombeo, como Estany Gento en el Pirineo, que actuaron como baterías gigantes para dar soporte adicional durante las siguientes horas y días.
En definitiva, el apagón del 28 de abril no solo puso a prueba la resiliencia del sistema eléctrico español, sino que también reivindicó el valor estratégico de la generación hidráulica. En el contexto actual de electrificación y transición energética, se vuelve cada vez más evidente la necesidad de contar con tecnologías flexibles, capaces de modular su potencia, almacenar energía o actuar sobre la demanda.
Desde CARTIF, trabajamos activamente en esta línea a través de proyectos europeos como D-HYDROFLEX o iAMP-Hydro, que buscan renovar las centrales hidroeléctricas existentes mediante sistemas híbridos y control inteligente. El objetivo: dotar a estas instalaciones de mayor flexibilidad, eficiencia y capacidad de estabilización, contribuyendo así a la construcción de un sistema eléctrico más robusto, sostenible y preparado para el futuro.