La innovación es una maratón, no un sprint

La innovación es una maratón, no un sprint

Innovar no es solo tener una buena idea. Es pelear por ella cuando nadie más lo hace. Es darle forma cuando aún es intangible, es fallar cien veces hasta que, de repente, algo empieza a brillar.

Tendemos a pensar cuando hablamos de innovación, que gracias a la aparición de una idea genial hemos resuelto ese pequeño objetivo o problema o, en otras ocasiones, un gran problema que puede transformar el mundo. Lo cierto es que ninguna idea genial va muy lejos si no es por personas que, con gran esfuerzo y perseverancia, consiguen «materializar» esa idea genial.

Las innovaciones pueden surgir en cualquier rincón de una organización. A menudo, los niveles directivos tienen más facilidad para convertir una intuición en una línea de trabajo, pero también es común que una buena idea emerja desde el equipo técnico, producción, calidad o incluso administración. El verdadero reto es lograr que esa idea sobreviva a todos los obstáculos que implica convertirse en realidad. Y son muchos los obstáculos, desde los compañeros más cercanos, directivos que no apoyan la idea porque es más cómodo seguir en la zona de confort, hasta obtener financiación interna o externa. Es decir, el reto de innovar en muchas ocasiones es sobrevivir al esfuerzo de pasar de idea a realidad patente.


La historia está llena de ideas brillantes que murieron por falta de perseverancia. Pero también de proyectos que nacieron, no porque fueron evidentes o perfectos, sino porque alguien insistió más allá de lo razonable. En contadas ocasiones estas ideas y personas que las impulsan cambian el mundo que conocemos (innovaciones disruptivas1).

Para plasmar con hechos reales cómo las ideas geniales cambian el mundo, hablemos de una de las historias más impactantes sobre innovación, el premio Nobel de Física en 2014 concedido a Isamu Akasaki, Hiroshi Amano y Shuji Nakamura por la invención del LED AZUL. Ese pequeño invento que hace que a día de hoy tengamos finas pantallas LED, y gracias a eso me leas desde tu portátil, móvil o tablet (hay decenas de aplicaciones más gracias a este invento).

Ilustración del Premio Nobel de Física de 2014
Fuente: La Vanguardia. https://www.lavanguardia.com/ciencia/20141007/54416831597/nobel-fisica-2014-akasaki-amano-nakamura.html

Durante décadas, se lograron LEDs rojos, verdes y amarillos. Pero no azules. Y sin el azul, no se podía crear luz blanca eficiente, ni pantallas LED, ni proyectores de bajo consumo. Las principales empresas y centros de investigación del mundo lo intentaron y fracasaron. Era, simplemente, demasiado difícil.

El reto estaba en el material base. El nitruro de galio (GaN) era la mejor opción, pero era muy complejo de sintetizar y dopar. Los cristales eran defectuosos. La emisión de luz era inestable. Muchos lo intentaron y todos se rindieron.

Todos, excepto tres personas: Isamu Akasaki, Hiroshi Amano y Shuji Nakamura.

Akasaki y Amano, desde la Universidad de Nagoya, comenzaron a experimentar en los años 80.

Nakamura, un ingeniero en una pequeña empresa japonesa llamada Nichia Corporation, continuó sus investigaciones de forma casi autodidacta, contra la opinión de su entorno.

Durante años trabajaron con escasos recursos, sin visibilidad, sufriendo fracasos constantes y rechazo por parte de la comunidad científica. Pero persistieron.

La historia del LED azul

En 1993, Nakamura logró finalmente desarrollar el primer LED azul de alta eficiencia y uso comercial. Aquella luz azul no solo cambió la iluminación, sino que abrió paso a nuevas tecnologías sostenibles, más duraderas y eficientes. En 2014, los tres recibieron el Premio Nobel de Física por una innovación que tardó 30 años en ver la luz… literalmente.


Os animaría a releer la historia de esta invención más en detalle, porque realmente es un gran ejemplo de cómo la perseverancia y esfuerzo pueden literalmente cambiar el mundo para mejor. Además, podemos aprender valiosas lecciones de esta historia:

  • La mayoría de las empresas abandonan una idea si no hay resultados en 6 meses. El LED azul tardó más de una década en funcionar, y décadas en ser reconocido.
  • Entender la innovación como maratón, no como un sprint.
  • La verdadera innovación requiere más de esfuerzo que de genialidad.
  • Hay que sostener la innovación, incluso cuando no hay resultados.

Porque al final, innovar no es solo tener razón, es tener la determinación de demostrarla cuando aún nadie la ve.


Cuando el verde no viene de aplicar un ACV, sino solo del Pantone®

Cuando el verde no viene de aplicar un ACV, sino solo del Pantone®

Si a mi abuela le hubieran hablado de marketing verde, habría levantado una ceja diciendo: “Eso suena a que te quieren vender lo de siempre… pero con olor a pino”.

Y si le contara el enredo que tuvo Ursula von der Leyen al tener que reafirmar su apoyo a la Directiva de Alegaciones Verdes, tras días de confusión en su equipo, me diría: “Pues lo típico, Laura… dicen una cosa por la mañana, la contraria por la tarde, y al final no sabes si están hablando de sostenibilidad o de horóscopos”

Y no le faltaría razón.

En los últimos años, la sostenibilidad ambiental se ha convertido en una potente herramienta de marketing, aunque no siempre respaldada por acciones reales. Para poner freno a las prácticas de comunicación engañosas conocidas como “lavado verde” o greenwashing, la Unión Europea ha impulsado dos directivas clave: la Directiva 2024/825 de Empoderamiento de los Consumidores, ya aprobada y pendiente de transposición en España, y la Directiva de Alegaciones Verdes (Green Claims), que establece criterios específicos para evitar afirmaciones ambientales sin fundamento, cuya aplicación estaba prevista a partir del 27 de septiembre de 2026. Y tenemos que decir estaba porque, a pocos días de su aprobación final, la propuesta ha quedado en el aire por falta de consenso político y está ahora a la espera de aclaraciones y de un acuerdo entre los Estados miembros.

Esta directiva pretende poner orden en un ecosistema de etiquetas verdes que ha crecido sin control. Su objetivo: exigir que cualquier alegación ambiental (eso de “100% reciclado” o “carbon neutral”) esté verificada y respaldada con datos sólidos, como un Análisis de Ciclo de Vida (ACV). En su versión más ambiciosa, incluso obligaba al uso de metodologías armonizadas como la Huella Ambiental de Producto (PEF) o de Organización (OEF). Sin embargo, las negociaciones políticas han ido rebajando el tono, y ahora está en riesgo de quedar en papel mojado. Una lástima, porque la ciudadanía necesita protección e información frente al greenwashing y las empresas honestas, reconocimiento. No es una norma pensada para molestarlas. Al contrario.



Mientras tanto, la presión social y la vigilancia de organismos como la Organización Europea del Consumo ya están surtiendo efecto. Prueba de ello son los casos recientes de Coca-Cola y Adidas, que han tenido que recular en sus mensajes “verdes” tras investigaciones por publicidad engañosa.


Fuente: Publicación Linkedin de El Empaque Conversión.

En el caso de Coca-Cola, una denuncia colectiva presentada por organizaciones europeas de consumidores y medioambiente llevó a que la Comisión Europea interviniera. El gigante de las bebidas se comprometió a cambiar frases como “hecha con plástico 100% reciclado”, ya que solo aplicaban al cuerpo de la botella, no a la tapa ni a la etiqueta. Por su parte, Adidas tuvo que dejar de promocionar una línea de zapatillas como “más sostenibles” sin explicar con qué criterios lo eran ni aportar evidencia alguna. Ambas situaciones dejan claro que ya no basta con añadir una hoja verde o el símbolo del reciclaje.

Así que, mientras en algunos sitios se confunde sostenibilidad ambiental con decoración, en CARTIF aportamos una base técnica rigurosa para acompañar a las empresas en su transición hacia modelos medioambientalmente más sostenibles y transparentes.

Desde nuestro equipo de sostenibilidad y neutralidad climática, llevamos años colaborando con empresas comprometidas con la mejora continua, que desean fundamentar sus decisiones en datos verificables.

¿Y cómo lo hacemos? Pues ni con bolas de cristal ni con hojas verdes de parra, sino:

  • Aplicando Análisis de Ciclo de Vida (ACV): porque saber el impacto ambiental de un producto no es cuestión de intuición, sino de cálculos rigurosos según estándares ISO.
  • Calculando huellas ambientales: empezando por la huella de carbono (la más mediática de la familia) pero sin olvidarnos de las demás: de acidificación, uso del suelo… Para tomar decisiones que pesen lo justo (en impacto, no en excusas).
  • Fomentando ecoetiquetados y la comunicación ambiental: porque decir la verdad también se entrena.
  • Ayudando a incorporar estrategias de ecodiseño: porque si el impacto ambiental no se tiene en cuenta desde la fase de diseño, poco puede hacer una etiqueta. Aquí es donde la sostenibilidad se cuela en los planos, en los materiales, en los embalajes… y sí, también en las decisiones con más estilo (y menos residuos).

Combinando todas estas herramientas, nuestra misión es apoyar a las empresas en su camino hacia modelos no solo ambientalmente más sostenibles, sino también más honestos y coherentes. Las acompañamos a medir, mejorar y comunicar (siempre en este orden).Queremos que puedan contar su historia de sostenibilidad con una sonrisa. Que su storytelling tenga coherencia con su storydoing.

Y a Ursula le pedimos una cosa sencilla (pero urgente): que no deje fuera del juego a quienes están haciendo las cosas bien. A esas empresas que apuestan por medir, mejorar y comunicar con transparencia, y que luego tienen que competir con quien vende humo verde.

Porque sí, se puede comunicar sostenibilidad sin caer en el maquillaje verde. Solo hace falta rigor, compromiso y un poquito de sentido común. Como el que tenía mi abuela.

¿Y cómo salimos del apagón?

¿Y cómo salimos del apagón?

A estas alturas de la película, seguramente estamos ya cansados de escuchar todo tipo de ideas, algunas bastante pintorescas, sobre las causas del apagón eléctrico del 28 de abril. Lo que parece menos atractivo, o con menos tirón mediático, es hablar de las soluciones técnicas que hicieron posible volver a iluminar una península con más de 50 millones de personas. Precisamente ese es el propósito de los siguientes párrafos.

Aunque ya disponemos de un esquema oficial sobre las causas de este blackout en nuestro sistema eléctrico, hay una palabra que resuena en todo este conglomerado de despropósitos: frecuencia. En el contexto eléctrico, la frecuencia representa la velocidad con la que la corriente alterna cambia de polaridad (de positivo a negativo y viceversa), y debe mantenerse siempre constante, en el caso peninsular 50 Hz, ya que toda la infraestructura de red está diseñada para operar bajo esas condiciones inflexibles.

Esta frecuencia, sin embargo, ha sido objeto de debate en los medios, en ocasiones para cuestionar el uso de energías renovables y en otras para ensalzar el uso indiscriminado de combustibles fósiles. Pero hay una fuente renovable menos mediática, silenciosa pero esencial, que juega un papel clave en el control de la frecuencia: la hidráulica.

Al igual que ocurre con otras tecnologías como las centrales nucleares o las turbinas de gas, la energía hidráulica genera electricidad mediante la rotación sincronizada de elementos mecánicos, lo que le permite contribuir de forma directa a mantener la frecuencia en los 50 Hz requeridos. Por el contrario, tecnologías como la solar fotovoltaica o la eólica (aunque imprescindibles en la transición energética) no tienen esa capacidad de regulación directa y, además, pueden ser muy sensibles ante desviaciones de frecuencia por su electrónica asociada. Una pescadilla que se muerde la cola.

Pero lo que realmente hizo protagonista a la hidráulica tras el apagón fue su capacidad de black start o arranque en negro: es decir, poner en marcha una instalación eléctrica sin depender de la red. Solo unas pocas centrales en el sistema tienen esta capacidad, y en España la mayoría son centrales hidroeléctricas con embalse. Gracias a su diseño, pueden arrancar sus turbinas usando únicamente baterías auxiliares o generadores diésel, aprovechando directamente la presión del agua embalsada.

Eso fue exactamente lo que ocurrió tras el “cero eléctrico” del 28-A. Centrales como Aldeadávila, Ricobayo o Riba-roja d’Ebre comenzaron a funcionar de forma autónoma, inyectando los primeros kilovatios a una red completamente vacía. Red Eléctrica de España (REE) gestionó estas instalaciones para formar pequeñas “islas eléctricas” locales, donde se estabilizó tanto la frecuencia como la tensión, y sobre las que posteriormente se reconstruyó todo el sistema interconectado.

En este escenario, uno de los mayores retos no era solo volver a generar electricidad, sino garantizar la calidad del suministro. Y eso, fundamentalmente, significa mantener frecuencia y tensión dentro de unos márgenes muy concretos. Para lograrlo, los sistemas eléctricos de potencia cuentan con mecanismos de balance tales como la regulación primaria, secundaria y terciaria, entre otros, que reaccionan en distintas escalas temporales ante desequilibrios entre generación y demanda.

Generada con IA

El primer paso fue activar la regulación primaria, que reacciona de forma inmediata a las desviaciones de frecuencia. En este caso, las centrales hidráulicas operando en isla fueron capaces de mantener de forma autónoma la frecuencia en sus subredes locales. Una vez estabilizadas, entró en juego la regulación secundaria (AGC) desde el centro de control de REE, afinando aún más la frecuencia hasta devolverla al valor nominal de 50 Hz, y apoyando a la primaria. Esta fase fue posible gracias a la comunicación remota y la alta capacidad de respuesta de las turbinas hidráulicas.

Conforme más zonas iban recuperando tensión, las plantas hidráulicas incrementaban su potencia o cedían carga a otras tecnologías, como los ciclos combinados de gas, lo que permitió liberar reservas a través de la regulación terciaria, que también activó plantas en modo bombeo, como Estany Gento en el Pirineo, que actuaron como baterías gigantes para dar soporte adicional durante las siguientes horas y días.

En definitiva, el apagón del 28 de abril no solo puso a prueba la resiliencia del sistema eléctrico español, sino que también reivindicó el valor estratégico de la generación hidráulica. En el contexto actual de electrificación y transición energética, se vuelve cada vez más evidente la necesidad de contar con tecnologías flexibles, capaces de modular su potencia, almacenar energía o actuar sobre la demanda.

Desde CARTIF, trabajamos activamente en esta línea a través de proyectos europeos como D-HYDROFLEX o iAMP-Hydro, que buscan renovar las centrales hidroeléctricas existentes mediante sistemas híbridos y control inteligente. El objetivo: dotar a estas instalaciones de mayor flexibilidad, eficiencia y capacidad de estabilización, contribuyendo así a la construcción de un sistema eléctrico más robusto, sostenible y preparado para el futuro.

Conservar lo que somos: una nueva mirada técnica al mantenimiento del patrimonio construido

Conservar lo que somos: una nueva mirada técnica al mantenimiento del patrimonio construido

Bajo las bóvedas de una iglesia gótica, entre los muros gruesos de un monasterio cisterciense, en las yeserías de un palacio renacentista o en las fábricas de tapial y entramado de una casa tradicional, late una misma realidad: el patrimonio construido forma parte esencial de nuestra historia y de nuestra identidad colectiva. Un legado físico hecho de piedra, madera, cal, ladrillo o tierra cruda, que fue concebido con una lógica constructiva sabia y adaptada a su tiempo.

Hoy, sin embargo, buena parte de estos edificios se deterioran, se vacían y, en demasiados casos, desaparecen sin haber tenido una segunda oportunidad. La falta de un uso actualizado, la pasividad, la ausencia de planes de mantenimiento, el coste que suponen y, sobre todo, algo de lo que se habla muy poco o se mantiene de tapadillo: la incomprensión técnica de cómo fueron construidos, están acelerando su pérdida.

Ciclo de vida del Monasterio de Nuestra Señora del Prado (Valladolid), edificio piloto del proyecto INHERIT. Elaboración propia

¿Cómo conservar lo que no se conoce? ¿Cómo mantener con criterio si ignoramos cómo se construyó, el por qué de los materiales o qué lógica estructural hay detrás? La conservación preventiva no es una moda: es una necesidad urgente si queremos preservar nuestra herencia cultural con rigor y responsabilidad.

En CARTIF consideramos esencial investigar y desarrollar soluciones técnicas, innovadoras, pero a la vez realistas y asumibles, que ayuden a afrontar este reto desde el conocimiento y el respeto por lo construido. Queremos contribuir a una conservación más inteligente y más útil que no se base en la improvisación ni en recetas estándar, sino en comprender cómo se construyen las cosas para poder cuidarlas mejor, con la convicción de que la conservación del patrimonio es un proceso colectivo: una forma de valorar lo que nos une, de implicar a la ciudadanía y de reforzar el vínculo con nuestro entorno. Proyectos en los que venimos trabajando , como INHERIT o iPhotoCult, respaldan esta visión y refuerzan la necesidad de ofrecer una nueva mirada tecnológica a la conservación del patrimonio. Ya en nuestro post «La ITV de la edificación histórica» abordamos esta perspectiva; si te interesa profundizar, te recomendamos su lectura.

Los edificios históricos no responden a las reglas de la construcción moderna. Sus materiales: cal, ladrillo, piedra, madera, tierra…, son porosos, naturales, adaptados al clima y al contexto y sus sistemas constructivos, muros portantes, bóvedas, armaduras de cubierta, obedecen a una lógica diferente. Evaluarlos con los mismos criterios técnicos que un edificio de hormigón armado o acero no solo es incorrecto, es injusto.

Necesitamos herramientas que hablen el idioma del patrimonio construido. Una mirada específica que valore su singularidad técnica. Porque la diversidad constructiva, lejos de ser un problema, es un valor añadido.

Hoy en día, muchas inspecciones diagnósticas dependen casi exclusivamente de la experiencia del técnico que las realiza. Esto es valioso, imprescindible incluso, pero también insuficiente si no se estructura la información de manera homogénea, trazable y útil para procesos posteriores como la planificación del mantenimiento, la rehabilitación o al evaluación del riesgo. No se trata de imponer una única manera de inspeccionar, sino de proponer una estructura técnica común, abierta a evolución, que respete la diversidad y aumente la eficacia de las decisiones.

Flujo de trabajo hacia el mantenimiento preventivo basado en HBIM: de la toma de datos al conocimiento. Elaboración propia

Por ello, consideramos fundamental abrir el debate y avanzar hacia una propuesta metodológica que dé respuesta a las necesidades específicas de este ámbito con criterios técnicos claros y una visión sistemática que permita:

  • Identificar y valorar los sistemas constructivos históricos desde su propia lógica.
  • Detectar y estructurar los síntomas de deterioro por ámbitos técnicos (cimentación, estructura, fachada, cubierta, particiones y acabados interiores, cerrajería y carpintería, accesibilidad, e instalaciones y sistemas inteligentes).
  • Evaluar los riesgos asociados, tanto físicos como funcionales o ambientales.
  • Generar datos estructurados y reutilizables, que permitan conectar con herramientas digitales como modelos H-BIM o plataformas de mantenimiento.

Este enfoque no se basa en estandarizar por simplificar. Al contrario: propone unificar criterios técnicos de forma inteligente, consensuando entre diferentes profesionales, adaptándose a distintos contextos y tipologías, y respetando la diversidad arquitectónica y cultural del patrimonio construido, siempre alineados al marco normativo actual (como la serie UNE 41805 sobre diagnóstico de edificios) y usando como referencia las recomendaciones del Plan Nacional de Conservación Preventiva del Instituto del Patrimonio Cultural Español (IPCE).

Adoptar una metodología técnica adaptada al patrimonio ofrece beneficios concretos tanto para técnicos y empresas como para administraciones públicas:

  • Costes reducidos a medio y largo plazo, al evitar intervenciones de emergencia.
  • Transparencia y trazabilidad, con datos organizados y comparables entre edificios.
  • Valoración del conocimiento técnico tradicional, reconociendo la lógica y la eficacia de sistemas y materiales históricos, a la vez que se cubren nichos profesionales absolutamente necesarios, que actualmente carecen de cobertura.
  • Apoyo real a la toma de decisiones, sin sustituir criterios técnicos profesionales.
  • Conectividad con modelos digitales y modelos H-BIM, que permiten planificar el mantenimiento, evaluar los riesgos de deterioro, registrar el envejecimiento de materiales, o el comportamiento energético (cuando sea necesario).

Este tipo de herramientas son claves para conseguir una gestión más útil y proactiva, que ayude a planificar mejor, a intervenir menos, y a conservar más, permitiendo alcanzar un patrimonio sostenible, resiliente, eficiente en el uso de recursos y, en definitiva, rentable.

El potencial de este enfoque no termina en la inspección o el diagnóstico. Se abre un camino hacia herramientas digitales capaces de integrar modelos 3D, imágenes geolocalizadas, sensores ambientales, estructurales o de cualquier otro tipo, y monitorización de lesiones o incluso sistemas de IA que anticipen patrones de deterioro.

Flujo de trabajo aplicado a la excolegiata de Nuestra Señora de la Asunción de Roa (proyecto iPhotoCult), con toma de datos mediante plataforma robótica terrestre (UGV)

Pero todo esto solo será útil si parte de una base sólida: datos fiables, técnicos y bien estructurados. Porque la tecnología, por sí sola, no conserva edificios. Lo hacen las personas con criterio, apoyadas por herramientas que respetan lo construido y lo comprenden desde dentro.

El patrimonio edificado no es una colección de piedras antiguas. Es una expresión viva de nuestra identidad, de nuestra manera de habitar, de nuestros oficios, nuestras decisiones y nuestra memoria. Y conservarlo, hoy más que nunca, es una forma de cuidarnos como sociedad.

Reciclaje químico de residuos textiles: una nueva vida para las mezclas de fibras

Reciclaje químico de residuos textiles: una nueva vida para las mezclas de fibras

El consumo de ropa y textiles se ha disparado con la expansión de la denominada “fast fashion”, dando lugar a enormes cantidades de residuos. En Europa, la European Environment Agency (EEA)1 reporta que cada ciudadano de la UE compró en 2022 una de media 19 kg de ropa, calzado y textiles para el hogar, frente a 17 kg en 2019. Además, se generaron alrededor de 6,94 millones de toneladas de residuos textiles en la UE. Sin embargo, la infraestructura de recogida no ha acompañado este crecimiento, y la mayor parte de estos desechos no se recupera, solo alrededor de un 15% de los residuos textiles en Europa se recogen de forma separada o se reciclan, lo que significa que el 85% restante acaba en la basura, incinerado o en vertederos sin ninguna segunda vida útil.

En España la situación es igual de preocupante. Nuestro país supera la media europea en consumo de moda con una generación estimada de cerca de 900.000 toneladas de residuos textiles al año. Según la Federación Española de la Recuperación y el Reciclaje (FER)2 , tan solo un 11% de la ropa usada en España se recoge en contenedores específicos. Esta enorme pérdida de materiales refleja que la gran mayoría de nuestras prendas usadas no encuentran una segunda vida.

Cifras reciclaje residuos textiles
F

¿Por qué se recicla tan poco la ropa? Uno de los principales obstáculos es la propia composición de las prendas. Es habitual que estén confeccionadas con mezclas de fibras, por ejemplo, una camiseta con 50% algodón y 50% poliéster, o tejidos que combinan poliéster con viscosa. De hecho, la mayoría de los residuos textiles postconsumo contienen combinaciones de fibras sintéticas y naturales. Estas mezclas, junto con los tintes y aditivos aplicados a los tejidos, dificultan enormemente el reciclaje mecánico tradicional que consiste en triturar las prendas usadas para obtener fibras reutilizables.

Este proceso requiere flujos de residuos bastante puros y uniformes para dar buen resultado. Si introducimos una mezcla de algodón y poliéster en la trituradora, obtendremos una masa de fibras mezcladas de distinta naturaleza que no se pueden hilar fácilmente en un hilo nuevo de calidad. Además, con cada ciclo de reciclaje, las fibras se acortan y se debilitan. Por eso, el reciclaje mecánico suele destinar las fibras recuperadas a productos de menor valor – un proceso conocido como “downcycling”– como rellenos aislantes, relleno de cojines, o materiales para construcción, en lugar de convertirse de nuevo en ropa.

Cuando una prenda lleva varios tipos de fibra pegados o incluye tratamientos químicos complejos, a menudo la ruta mecánica no puede reciclarla en absoluto y esa prenda mixta acaba directamente en el vertedero. En resumen, nuestras prendas actuales están llenas de mezclas y acabados que el reciclaje tradicional no sabe separar y terminan desperdiciados.

Infografía ventajas reciclaje químico de fibras textiles

Frente a este problema, el reciclaje químico se posiciona como una solución prometedora. A través de procesos como la disolución selectiva o la despolimerización, permite descomponer los tejidos a nivel molecular y recuperar sus componentes básicos: celulosa, monómeros plásticos o nuevas fibras regeneradas. En lugar de triturar o fundir, se “rebobina” la materia prima para “volver a empezar”.

Algunos ejemplos recientes muestran que esta tecnología ya está dando pasos hacia la realidad industrial. La startup alemana Eeden, por ejemplo, está construyendo una planta piloto para reciclar mezclas de algodón y poliéster. Su proceso permite recuperar celulosa de alta pureza a partir del algodón y monómeros del poliéster (como el ácido tereftálico), que pueden reutilizarse en la fabricación de nuevas fibras.

Por su parte, BASF e Inditex han desarrollado loopamid®, el primer nailon 6 reciclado por completo a partir de residuos textiles. Gracias a un proceso químico de despolimerización y repolimerización, es posible obtener un nuevo polímero con calidad comparable al original, que ya ha sido usado para fabricar prototipos de prendas.

Aunque todavía es una tecnología emergente, el reciclaje químico está demostrando su capacidad para cerrar el ciclo textil incluso en los casos más complejos, y será clave para avanzar hacia una moda verdaderamente circular.

Descomposición de tejidos
Descomposición de tejidos

En resumen, el reciclaje químico de residuos textiles se perfila como una solución necesaria y complementaria al reciclaje mecánico para hacer frente a la crisis de residuos de la moda. Ante un volumen cada vez mayor de ropa desechada –y, especialmente, el desafío que suponen las prendas de fibras mezcladas, omnipresentes en nuestro armario-, las tecnologías químicas ofrecen la posibilidad de recuperar materiales con calidad de origen, superando las limitaciones de los métodos tradicionales. Aunque todavía deben escalarse industrialmente y abaratar costos, ya se ha demostrado que es técnicamente viable convertir una prenda usada en una nueva, separando polímeros y eliminando impurezas en el proceso.

En el futuro, combinar mejores diseños (prendas más duraderas y reciclables), consumo responsable, sistemas eficientes de recogida y clasificación, y todas las formas de reciclaje disponibles, será clave para lograr una verdadera economía circular en el sector textil. En ese panorama, el reciclaje químico se convertirá en un aliado imprescindible para que esa camiseta usada que hoy consideramos un desecho pueda “nacer de nuevo” convertida en materia prima de alta calidad, reduciendo la carga ambiental de la moda y cerrando el círculo de los textiles.


1 Agencia Europea de Medio Ambiente (2025). https://www.eea.europa.eu/en/newsroom/news/consumption-of-clothing-footwear-other-textiles-in-the-eu-reaches-new-record-high#:~:text=The%20average%20EU%20citizen%20bought,the%20EU%E2%80%99s%20textile%20value%20chain

2 Federación Española de la Recuperación y el Reciclaje (FER). Info Textil (2024). Estadísticas de residuos textiles en España: https://www.recuperacion.org/info-textiles/

Valorización de subproductos cárnicos: una receta científica para reducir residuos

Valorización de subproductos cárnicos: una receta científica para reducir residuos

Empiezo adaptando un poco un dicho: “el subproducto de unos es el tesoro de otros”, es decir, podemos aprovechar de formas muy variadas y con gran cantidad de aplicaciones en distintas áreas, los residuos generados durante las etapas del proceso de producción de la industria, en este caso, agroalimentaria.

Y, ¿esto cómo se hace? Pues… en nuestro caso, extraemos (o al menos lo intentamos) distintos componentes de subproductos cárnicos, como las proteínas, aplicando una serie de “trucos” en el laboratorio.

Para ponernos en contexto, primero una pequeña introducción sobre las proteínas. Estas tienen una serie de propiedades, como su estructura, que podemos usar a nuestro favor para extraerlas de la matriz en la que se encuentran. Como sabréis, la organización básica de las proteínas es un “esqueleto” de aminoácidos, conocida como estructura primaria, que, dependiendo de su combinación resulta en una proteína u otra. Pero, aparte de dicha organización básica, vamos a tener otras un poco más complejas: el plegamiento y estructura tridimensional de esa cadena de aminoácidos, conocidas como estructuras secundaria, terciaria y cuaternaria. Esta organización espacial va a ser la que permita a las proteínas realizar sus múltiples funciones, porque es la que da pie a las interacciones fisicoquímicas entre estas y otros componentes, aplicable desde el nivel celular hasta el nivel de componentes dentro de un alimento.

Fuente: Instagram @ifas_publication

Una vez introducido el marco teórico, podemos entrar más en la parte práctica, que es más entretenida, o al menos eso dicen. Si en el laboratorio cambiamos alguna condición en la que se encuentra nuestra proteína de interés, como pueden ser temperatura o pH, podemos molestarla lo suficiente como para que se desnaturalice. Cuando una proteína se desnaturaliza, pierde su estructura tridimensional, a veces siendo un poco más dramático y, por tanto, irreversible. Así, conseguimos extraerlas y que se desenganchen del resto de componentes porque hemos alterado los enlaces químicos que estaban establecidos.

Una de las formas de hacer que las proteínas se desnaturalicen es cambiando los valores de pH a nuestro antojo. Al cambiar el pH de la muestra en la que tenemos proteínas, cambiamos las interacciones entre estas y el medio, alterando su estructura y su comportamiento, por ejemplo, afectando a su solubilidad. Primero, cambiamos el pH haciendo que salgan de la muestra y se solubilicen en agua, y una vez fuera del resto de la muestra, volvemos a cambiar el pH y, así, que dejen de tener cargas disponibles para interactuar con el agua y precipiten. Al final, a base de marearlas, conseguimos aislarlas del resto de componentes de nuestra materia prima para obtener un concentrado de proteínas.

Fuente: https://labster-image-manager.s3.amazonaws.com/v2/PRD/8c2fc0e1-7746-4ae8-a261-37206bc736de/PRD_Denaturation_definition.es_ES.png
Credit: David Baker

Y ahora llega el momento de ponerse creativos, porque después del intrincado proceso de laboratorio, ¡pasamos a la cocina! Estas proteínas que hemos obtenido se pueden utilizar, por ejemplo, como suplemento en nuestra dieta o como ingrediente en alimentos. Esto abre la puerta a infinidad de posibilidades, pero sin olvidarnos de lo más importante: reducimos los residuos derivados de la industria, dando salida a subproductos y entrada a desarrollo y mejora de productos, porque como se suele decir, ¡¡aquí no se tira nada!!

Y eso, entre otras muchas cosas, hacemos en CARTIF, intentamos dar la mayor salida posible a los subproductos de la industria agroalimentaria para reducir los residuos que ocasiona, eso sí, siempre de la mano de una dieta saludable.