Nuevas aplicaciones del Deep Learning

Nuevas aplicaciones del Deep Learning

Hace algo más de un año, en otra entrada de este blog, nuestro compañero Sergio Saludes ya comentó lo que es el aprendizaje profundo y se detallaron varias de sus aplicaciones (como la victoria de una máquina basada en estas redes sobre el campeón mundial de Go, considerado el juego más complejo del mundo).

Pues bien, en estos 16 meses (todo un mundo en estos temas) se ha avanzado enormemente en el número de aplicaciones y la calidad de los resultados obtenidos.

Considerando por ejemplo el campo de la medicina hay que decir que cada vez son más utilizadas las herramientas de diagnóstico basadas en aprendizaje profundo, consiguiendo en algunos casos mayores tasas de acierto que los especialistas humanos. En especialidades concretas como la radiología estas herramientas están suponiendo una gran revolución y en industrias relacionadas como la farmacéutica también se han aplicado con éxito.

En sectores tan variados como la seguridad industrial, se han utilizado recientemente para detectar grietas en reactores nucleares, se han comenzado a emplear también en el mundo de las finanzas, predicción de consumo energético  y en otros campos como la meteorología y el estudio de las olas marinas.

Los proyectos de conducción autónoma de vehículos, tan en boga actualmente, usan principalmente herramientas basadas en aprendizaje profundo para calcular muchas de las decisiones a tomar en cada caso. Respecto a este tema, hay una cierta preocupación en cómo estos sistemas decidirán qué acciones llevar a cabo, especialmente cuando hay en juego vidas humanas y ya hay una página del MIT donde el público en general puede colaborar en la creación de una ética del coche autónomo. Realmente estos dispositivos solo pueden decidir lo que previamente haya sido programado (o entrenado) y seguramente falta mucho para que las máquinas puedan decidir por sí mismas (en el sentido convencional de “decidir”, aunque esto daría lugar a un debate mucho más complejo sobre otros temas como la singularidad).

Con respecto al programa de Go comentado anteriormente (que batió al campeón mundial  por 4 a 1), se ha desarrollado una nueva versión (Alpha Go Zero) que ha batido por 100 a 0 a dicha versión anterior simplemente conociendo las reglas del juego y entrenándose contra sí misma.

En otros ámbitos como la traducción de lenguas, comprensión y síntesis de la voz, también han avanzado de forma muy notable y el uso de asistentes personales en el teléfono móvil se está empezando a generalizar (si es que vencemos el natural rechazo o vergüenza a “conversar” con una máquina).

En CARTIF también se está trabajando en sistemas de aprendizaje profundo desde hace ya tiempo y se han desarrollado diferentes tipos de soluciones, como la clasificación de imágenes de patrimonio arquitectónico dentro del proyecto europeo INCEPTION.

Todos estos desarrollos informáticos llevan asociado un alto coste computacional, especialmente en lo relativo al entrenamiento necesario de las redes neuronales utilizadas. A este respecto se está avanzando en los dos frentes implicados: hardware, mucho más rápido y potente y algoritmos, más evolucionados y optimizados.

Parece que el aprendizaje profundo es el santo grial de la inteligencia artificial en vista de los avances realizados en este campo. Puede que no sea así y simplemente estemos ante una nueva herramienta más, pero de lo que no cabe duda es de que es una herramienta extremadamente potente y versátil que dará origen a nuevos y prometedores desarrollos en muchas aplicaciones relacionadas con la inteligencia artificial.

Por supuesto, surgen muchas voces que alertan de los posibles peligros de este tipo de sistemas inteligentes. Lo cierto es que nunca está de más prevenir los riesgos potenciales de cualquier tecnología aunque, como dice Alan Winfield, más que a la inteligencia artificial es a la estupidez artificial a lo que habría que tener miedo, ya que, como siempre ocurre en estos casos, el peligro de cualquier tecnología está en el mal uso que se le puede dar y no en la tecnología en sí misma. Ante este reto lo que debemos hacer es promover mecanismos que regulen cualquier uso no ético de estas nuevas tecnologías.

Realmente estamos solo ante el comienzo de otra era dorada de la inteligencia artificial, como ha habido varias anteriormente, aunque esta vez sí parece que puede ser la definitiva. No sabemos hacia dónde nos llevará esta etapa, pero confiando en que sabremos aprovechar las posibilidades que se nos brindan, debemos ser optimistas.

Los precios dinámicos de la electricidad y las lavadoras con iniciativa

Los precios dinámicos de la electricidad y las lavadoras con iniciativa

Cuando todos podamos beneficiarnos de la smart grid, veremos cómo una lavadora toma vida y cómo, casi, tendrá iniciativa propia. Y lo hará para que paguemos menos por la electricidad que necesita para hacer su trabajo. Y lo mismo harán el lavaplatos, el calentador y otros electrodomésticos devoradores de energía eléctrica. Esto será una consecuencia de las ventajas de los precios dinámicos, que cambiarán a lo largo del día para animarnos a usar la energía cuando sobra y para disuadirnos de usarla cuando falta.

Para estudiar la mejor manera de aprovechar los precios dinámicos, en Bélgica han desarrollado un proyecto que involucró a 250 familias que tenían instalados en sus casas electrodomésticos inteligentes. En concreto lavadoras, secadoras, lavaplatos, calentadores eléctricos y cargadores de coches eléctricos. Que sean inteligentes quiere decir que tienen comunicación con el exterior y les llega información sobre los precios y que pueden ponerse en marcha sin intervención de sus dueños. El día fue dividido en seis tramos, en vez de una simple diferencia entre día y noche, y el precio en cada tramo fue fijado en función del precio de mercado correspondiente a ese tramo horario. Dividieron a los clientes en dos grupos.

Al primer grupo le informaron de los precios de la electricidad en cada uno de los tramos horarios con un día de antelación. La información les llegaba a los clientes a través de una app instalada en una tableta. Con esa información los clientes eran responsables de planificar cuándo usarían cada electrodoméstico durante el día siguiente.

El segundo grupo tenía electrodomésticos que reaccionaban automáticamente a los precios dinámicos sin dejar de lado las preferencias de sus dueños. Por ejemplo, una familia podía querer tener los platos listos para la cena, digamos a las seis de la tarde (parece ser que en Bélgica cenan a esas horas). A las ocho de la mañana, al salir para el trabajo, encendían el lavaplatos y lo programaban para que a las seis hubiera terminado. En el caso de un programa que necesitara dos horas para terminar, el lavaplatos sabía que tenía que ponerse en marcha entre las ocho de la mañana y las cuatro de la tarde para que sus dueños se encontraran los platos listos a las seis de la tarde. El lavaplatos elegía para ponerse en marcha el tramo horario en el que la electricidad fuera más barata, a no ser que éste ocurriera después de las cuatro de la tarde. En ese caso daba preferencia a las necesidades de sus dueños y se ponía en marcha en algún momento que le permitiera tener los platos listos a las seis y que todavía tuviera alguna ventaja económica. Otros electrodomésticos, como el calentador, simplemente evitaban los tramos más caros para hacer su trabajo.

Los clientes que seguían el método manual encontraron el proceso demasiado cansado y lo fueron abandonando poco a poco. Sin embargo, los que seguían el método automático no sintieron que afectara a sus vidas y terminaron encantados con el sistema. Estas familias vieron cómo sus electrodomésticos adquirieron hábitos noctámbulos y que su gasto en electricidad disminuía en un 20% para el lavaplatos, un 10% para la lavadora y secadora y un 5% para los calentadores eléctricos. Probablemente calentadores eléctricos con un aislamiento térmico mejorado habrían permitido aprovechar mejor los tramos horarios más baratos.

Una de las conclusiones de este proyecto, es que los clientes no parecen muy dispuestos a estar todos los días pendientes de los precios de la electricidad y a planificar cuidadosamente el uso de los electrodomésticos. Esto parece lógico si cada uno de nosotros se pone a pensar en sus propias actividades y en el esfuerzo que supone esa manera de hacer las cosas. Este resultado es curioso si lo comparamos con el éxito que la compañía Opower decía tener en la reducción de la demanda de energía en casas particulares, lo que se traduce en menores facturas y menos CO2 emitido a la atmósfera. Hasta Obama fue a visitarlos. Y digo que es curioso porque interactuaba con los clientes de una manera parecida a la manera manual que han probado los belgas. Pero hoy Opower forma parte de Oracle, quizá atraída más por todos los datos y conocimiento sobre los hábitos de los clientes que por los beneficios para el sistema eléctrico y el medio ambiente. De cualquier modo, parece que el espíritu original de Opower se mantiene de alguna forma.

Pero lo que parece posible es que pronto todos tengamos la lavadora conectada a nuestra compañía eléctrica a través de internet y que decida cuándo ponerse en marcha para rebajar nuestra factura de la luz. Después de eso, sólo hará falta que los fabricantes de lavadoras hagan que la ropa salga planchada y seremos totalmente felices.

Buenas prácticas en eficiencia energética en industria

Buenas prácticas en eficiencia energética en industria

Tradicionalmente en las fábricas, los factores que se tenían en cuenta en los procesos de fabricación eran económicos, de gestión, producción, etc. Sin embargo, esa situación ha cambiado en los últimos años. La eficiencia energética y la gestión sostenible son aspectos fundamentales que muchas empresas han incorporado en sus procesos. Conscientes de esa realidad, CARTIF viene acompañando a las empresas para incorporar en ellas el concepto de “Factorías del Futuro”. Un ejemplo del trabajo hecho en este ámbito es el proyecto REEMAIN.

REEMAIN va hacia la fabricación eficiente, buscando emisiones cero a través del uso inteligente de tecnologías de energía renovable y estrategias de ahorro de recursos como la compra, generación, conversión, distribución, utilización, control, almacenamiento y reutilización de energía de manera holística e integrada.

Además de eso, el proyecto REEMAIN nos ha brindado la oportunidad de ampliar nuestros conocimientos y experiencia en el mundo de la fabricación eficiente en términos de recursos y energía. Durante las actividades de demostración en las fábricas adscritas al proyecto, el equipo de trabajo ha experimentado tecnologías y procesos para el ahorro de energía y materiales y, por supuesto, probado su efectividad.

Dado que el proyecto está llegando a su fin, hemos elaborado un libro de buenas prácticas, como una manera de compartir nuestra experiencia con otros profesionales en el ámbito de la fabricación.

El libro “REEMAIN: buenas prácticas” resume las principales conclusiones de nuestra experiencia adquirida en los más de cuatro años trabajando en este proyecto. Son recomendaciones que hacemos a toda la comunidad involucrada en este tipo de proyectos (diseñadores, instituciones de investigación, propietarios de las industrias, trabajadores, contratistas, organismos públicos, inversionistas, etc.), con el fin de guiarles/ayudarles  si alguno de ellos decide involucrarse en un proyecto de mejora de la eficiencia dentro de una fábrica.

Se han destacado 18 buenas prácticas basadas en nuestra experiencia al buscar y probar medidas de eficiencia en las tres fábricas de demostración: GULLÓN (Galletas), BOSSA (Textil) y SCM (Fundición). Esas buenas prácticas se clasifican en tres áreas temáticas principales: buenas prácticas sobre «diseño», buenas prácticas sobre «Operación y mantenimiento» y «Explotación y difusión».

Cada una de ellas se expone de una forma breve y visual incluyendo su título, descripción (que es en sí misma una recomendación), grupos de interés, replicabilidad, consejos para su implementación y situaciones a evitar, valoración de su impacto y, finalmente, la experiencia práctica lograda a través de REEMAIN.

El libro de buenas prácticas está disponible on-line y para descarga gratuita en este link.

Visión artificial en la embutición en caliente

Visión artificial en la embutición en caliente

Con este post me gustaría tratar de mostrar un ejemplo muy claro de cómo el empleo inteligente de un sistema de visión artificial adecuado puede resolver un problema importante en una línea de producción a un precio razonable.

La carrocería de nuestro vehículo está formada por multitud de piezas metálicas, cada una de ellas con su propio requerimiento. La industria de la automoción fabrica estas piezas mediante un proceso de conformado de chapas laminadas denominado embutición. En este proceso se coloca una chapa metálica sobre una matriz, se fija esta con un pisador y, posteriormente, un punzón empuja la chapa hacia la matriz generando la cavidad deseada.

En función de la temperatura de la chapa, se definen dos tipos de embutición: en frío y en caliente. A continuación, nos centraremos en la embutición en caliente, que se aplica principalmente en elementos de alto requerimiento estructural, como refuerzos, pilares, etc.

En este proceso, la chapa se calienta por encima de la temperatura de austenización, obteniendo una alta ductilidad y a continuación se realiza un enfriamiento rápido para lograr el endurecimiento martensítico de la chapa.  Las piezas así obtenidas alcanzan una alta resistencia, se consiguen formas complejas y se reducen los efectos de springback. Esto permite, entre otras cosas, mejorar la seguridad pasiva de nuestros coches y reducir su peso.

En este proceso de fabricación, las chapas salen del horno a gran velocidad, a una temperatura en torno a unos 900 -950 ºC, y se detienen bruscamente en una posición fija. Posteriormente, un robot las recoge para introducirlas en la prensa lo más rápido posible, con el fin de evitar su enfriamiento antes del golpe de prensa.

El problema surge por la dificultad para garantizar una posición fija con paradores mecánicos. Esto es debido, entre otras cosas, a la velocidad de la línea, a la gran variedad de referencias, a las altas temperaturas de las chapas (se enfrían muy rápidamente en el punto donde existe un contacto), a las características internas del horno (puede llegar a medir 30 m), etc.

Una posición incorrecta supone que el robot falle en la recogida de la chapa o, lo que es peor, que la coja mal y la coloque incorrectamente en la prensa, produciendo un golpe de prensa erróneo y la parada de la línea, unida a un deterioro de los útiles.

En este caso, la visión artificial se presenta como la mejor elección para indicar al robot si la posición real de la chapa es la correcta. La tarea más importante del sistema de visión será segmentar correctamente la chapa en la imagen con el fin de determinar de forma precisa la posición de la misma.

A priori, dada la intensa radiación infrarroja que emiten las chapas debido a su alta temperatura, parece que la alternativa más fácil para conseguir esta tarea es emplear cámaras industriales infrarrojas. Esta solución presenta dos problemas: el elevado coste de estos equipos y la baja resolución de los sensores infrarrojos.

La zona de trabajo en la que se posicionan las chapas es muy amplia, no solo por el tamaño de las piezas, sino también porque en muchos casos se trabaja por lotes, llegando a manipular simultáneamente hasta cuatro unidades. Dada la baja resolución de estos sensores, es necesario emplear varias cámaras para aumentar la precisión con la que se define la posición de la pieza.

En CARTIF estamos desarrollando soluciones más económicas, empleando cámaras industriales dentro del espectro electromagnético del visible con una mayor sensibilidad en el rango del infrarrojo. La resolución de estas cámaras es bastante mayor que la de las cámaras infrarrojas, lo que permite así aumentar la precisión de las medidas.

Esto ha permitido a empresas como Renault obtener un sistema robusto y configurable que evita las paradas indeseables de la línea y alarga la vida útil de sus herramientas, lo que conlleva una mejora considerable en la línea de producción.

La Guerra de las Eficiencias (Episodio VI) – El retorno de Niels Bohr

La Guerra de las Eficiencias (Episodio VI) – El retorno de Niels Bohr

Alternativas Innovadoras low cost. El barómetro y cómo pensar fuera de la caja

Acabé mi anterior entrada comentando cómo un planteamiento ILM para desagregar consumos energéticos en una fábrica puede ser un reto insuperable, desde el punto de vista económico, para aquellas fábricas con consumos energéticos muy altamente distribuidos.

En el mercado existen propuestas comerciales para sistemas de medición industrial de los principales fabricantes de equipamiento como SIEMENS, ABB, SCHNEIDER,…capaces de proporcionar un seguimiento hiper-exhaustivo (varias medidas por segundo) de los consumos energéticos de los distintos elementos de una cadena de producción. Sin embargo, dichos sistemas no son nada baratos ni en el coste del hardware necesario, ni en la instalación informática y de comunicaciones requerida, ni en el coste de las licencias. A día de hoy, siguen siendo un lujo sólo al alcance de las grandes multinacionales que además disponen de varias fábricas similares en distintos emplazamientos.  Por tanto, poseen una mejor capacidad de negociación de compra y una fácil y alta replicabilidad interna. Además, sus procesos productivos suelen estar altamente automatizados e informatizados a través de sistemas MES (Manufacturing Execution System) de última generación. Ya disponen de la infraestructura informática y de comunicaciones necesaria. Sólo les falta la inversión en hardware y la “ampliación” de las licencias software.

Para el resto de pequeñas y medianas fábricas, estas soluciones pueden suponer “matar moscas a cañonazos”, de tal forma que nunca se llegue a rentabilizar (en términos del ahorro producido) la inversión en monitorización empleada. Sin embargo, este tipo de fábricas cada vez están más interesadas en optimizar sus costes energéticos, pero empleando una inversión económica razonable respecto de sus volúmenes de facturación.

Todo estudiante de ciencias habrá oído alguna vez la supuesta anécdota de Niels Bohr y el barómetro, en alguna de sus múltiples versiones. Aunque la anécdota de Bohr y el barómetro no es real sino inventada, la moraleja de intentar pensar de forma diferente para resolver un posible problema sigue más vigente que nunca. La diferencia es que ahora lo llamamos “pensar fuera de la caja”. La pregunta ahora no es ¿cómo medir la altura de un edificio con la ayuda de un barómetro? Sino, ¿cómo se puede realizar la medición y monitorización de los consumos energéticos desagregados de una fábrica sin dejarse por el camino el presupuesto de inversión de un año?

La respuesta, como en el caso del barómetro, no es única, ya que dependerá de cada fábrica en concreto. Afortunadamente, la revolución del IOT está produciendo una economía de escala en algunos de los componentes necesarios. Continuando con los guiños a ‘Star Wars’, se podría decir que los sistemas low cost de monitorización de consumos energéticos pueden compararse con un caza X-wing formado por las siguientes alas:

  • El abaratamiento de los costes de la electrónica, que está permitiendo el desarrollo de nuevos sensores no invasivos de bajo coste, como pueden ser sensores de corriente eléctrica basados en efecto Hall, sensores de caudal por ultrasonidos, o sensores de temperatura por infrarrojos.
  • Las plataformas libres de hardware y software de captura y procesamiento de señales a través de dispositivos de bajo coste como Arduino, Raspberry Pi y similares.
  • La aparición de nuevos protocolos de comunicación inalámbrica orientados hacia la comunicación M2M (Machine To Machine) con características de bajo ancho de banda, bajo consumo energético y alta resistencia a las interferencias, entre otras Zigbee, BT LE, o Wi-Fi HaLow.
  • Los sistemas software de almacenamiento y tratamiento de todos los datos registrados, como los sistemas de bases de datos, de cálculo de múltiples informes de indicadores y pantallas de visualización de los parámetros más importantes, tanto residentes en servidores físicos ubicados en la intranet de la fábrica como en servidores virtuales alquilados en la nube.

Estas nuevas tecnologías no han alcanzado la madurez todavía y obviamente la industria puede ser muy reticente a su utilización. Si hay una cuestión que asusta a un responsable de producción o de mantenimiento son los sistemas experimentales que no han sido probados previamente durante años. Sin embargo, es necesario recordar que no estamos hablando de modificar los sistemas de control de los procesos y las máquinas, sino de montar un sistema paralelo a lo largo y extenso de la fábrica que permita la monitorización y registro de los consumos energéticos de los principales elementos y sistemas de producción.

Estamos hablando de la detección de las posibles ineficiencias energéticas. Estamos hablando de su corrección y de los ahorros económicos correspondientes. Y estamos hablando de hacerlo con un coste de inversión razonable, es decir, que se lo pueda permitir una PYME.

Transformación digital de aquí a la Luna

Transformación digital de aquí a la Luna

20 de julio de 1969, son las 20:18:04 UTC y después de 102 horas, 45 minutos y 39.9 segundos de viaje, “el águila ha aterrizado” y Neil está a punto de descender por la escalera y tocar una superficie desconocida por primera vez: “Un pequeño paso para el hombre, un gran paso para la Humanidad”. Aquel 1969, Neil Armstrong, Michael Collins y «Buzz» Aldrin cambiaron la historia a bordo del mayor cohete construido con destino a la luna.

Muchos lo habrán olvidado, otros como yo ni siquiera habíamos nacido, pero la carrera espacial sufrió una transformación digital similar a la que perseguimos para transformar la industria. El programa Apolo fue la culminación de aquella primera revolución digital en la exploración del espacio.

El alunizaje fue conseguido en parte gracias a la electrónica a bordo del módulo lunar, el ordenador de navegación del Apolo (AGC, del inglés Apollo Guidance Computer). El ordenador AGC fue uno de los primeros ordenadores basados en circuitos integrados digitales. Con “apenas” 32 kgs de peso y unos 55W de consumo, esta maravilla técnica era capaz de coordinar y controlar muchas tareas de la misión espacial, desde calcular la dirección y los ángulos de navegación de la nave, hasta comandar los controles de posición por reacción y orientar la nave en la dirección deseada. Asimismo, el ordenador incluía una de las primeras demostraciones de control «fly-by-wire con los cuales el piloto no comandaba directamente los motores de la nave sino a través de unos algoritmos de control programados en el ordenador de vuelo. De hecho, el ordenador AGC fue la base para los siguientes controles “fly-by-wire” del transbordador espacial, así como de aviones militares y comerciales.

Pero como pasa con este tipo de innovaciones, no suceden de un día para otro sino a partir de innovaciones incrementales previas.

Durante los años 50, el MIT Instrumentation Laboratory (MIT IL) desarrolló el sistema de guiado de los misiles Polaris. Este sistema fue construido inicialmente con circuitos analógicos, pero decidieron empezar a usar circuitos digitales para garantizar la precisión requerida para calcular las trayectorias de los misiles y sus algoritmos de control.

Antes de que el presidente Kennedy fijase el ambicioso objetivo de “… viajar a la Luna en esta década …” siete años antes del primer alunizaje, y después de la puesta en órbita del Sputnik en 1957, el MIT IL comenzó un estudio de exploración de Marte mediante una sonda. El diseño de esta sonda sentó las bases del futuro sistema de guiado del Apolo e incluía varios giróscopos para orientar la sonda, un ordenador digital y un telescopio para orientar la sonda en relación a la Luna y las estrellas.

El lanzamiento del Sputnik avivó la ambición de los EEUU por ser el primer país en poner un hombre en el espacio, pero creó el debate público acerca del rol más adecuado para los pilotos en la carrera espacial. Una discusión similar a la actual respecto del rol del trabajador en las fábricas. ¿El astronauta debería ser otra “carga” más a bordo de la nave o tomar el control completo de la misma? Una vez que los pilotos de pruebas se ganaron la responsabilidad de tomar el control de las naves, numerosos test mostraron que era prácticamente imposible controlar todos los aspectos de las misiones debido a la las rápidas reacciones y la gran cantidad de mandos de control. Por lo tanto, los pilotos necesitarían algún tipo de ayuda automática y fiable, y esa fue una de las principales funcionalidades del ordenador AGC.

La fiabilidad se convirtió entonces en una de las principales preocupaciones de la misión. El programa Polaris tardó cuatro años en diseñar el control de guiado para un arma que debía permanecer en el aire durante varios minutos. La apuesta de Kennedy de poner un hombre en la luna en menos de siete años significaba desarrollar otro sistema de guiado y control para una nave espacial que debería funcionar sin fallos en un viaje de más de una semana de duración. Los niveles requeridos de fiabilidad eran, por lo tanto, más de dos niveles de magnitud superiores. Si un misil Polaris fallaba, se podría disparar otro. Un fallo en la nave espacial podría matar a un astronauta.

Mucha de la fiabilidad del viaje a la Luna estaría soportada por el ordenador AGC y en cierto momento del programa Apolo había demasiadas tareas planificadas (e.g. maniobras complejas) como para ser controladas con circuitos digitales independientes. Para llevar a cabo estas tareas hacía falta un software. Aunque este concepto apenas se tuvo en cuenta en el principio del programa Apolo, significó la diferencia entre el fracaso o el éxito de todo el proyecto. El ordenador AGC se convirtió en el interfaz entre el astronauta y la nave, que finalmente significaría que el ordenador “controlaba” la nave, una revolución para la época. Hoy en día, el software está en todas partes, pero en los años 60, el software era considerado como un conjunto de instrucciones en tarjetas perforadas. Los programas del ordenador AGC (fijados entre tres y cuatro meses antes de cada lanzamiento) estaban “cableados” mediante ferritas y cables en una memoria permanente (y muy fiable) pero ahorraron mucho tiempo, esfuerzo y presupuesto. De hecho, puede decirse que el software del Apolo era más un “firmware” utilizando la terminología actual.

El reto actual de revolucionar la industria a través de la transformación digital no puede ocurrir sin la ayuda de los denominados habilitadores digitales. Hace 48 años, los primeros circuitos digitales integrados y los primeros programas fueron los habilitadores que permitieron conseguir aquel  “pequeño paso para el hombre”. Hoy, el típico “la transformación digital no es una opción”, puede sonar a cliché o eslogan comercial, pero echando una mirada hacia atrás en la historia, la transformación digital del programa Apolo significó la diferencia entre poner o no poner la primera huella humana en la Luna.