Mucho del nuevo bombo alrededor de la Inteligencia Artificial (IA) está directamente relacionada con la potencialidad para imitar o superar las capacidades del cerebro humano (en cuanto a volumen de datos manejados y velocidad de procesamiento) mediante el uso de los ordenadores. El neurocientífico Henry Markram en 2009 anunció un proyecto que pretendía simular el cerebro humano en una super-computadora con diferentes objetivos como «comprender la percepción o la realidad y tal vez incluso comprender también la realidad física».
La denominada «singularidad tecnológica» establece como la IA y la robótica nos sobrepasará a los humanos. Hay diferentes predicciones sobre cuándo ocurrirá este apocalipsis. Elon Musk coloca esta singularidad en 2025, el millonario ruso Dmitri Itskov en 2045, por citar varios ejemplos. El continuo avance de las capacidades de los microprocesadores también alimenta, erróneamente, este bombo de la IA. Si uno compara únicamente el número de neuronas (unos86.000 millones) con el número de transistores del último chip M1 de Apple (16.000 millones) puede estar tentado de asegurar que la «capacidad de computación» del ser humano es fácilmente superable. Lo sé, las comparaciones son odiosas, y en este caso , muy atrevidas.
Hasta hace poco yo también me encontraba entre los expectantes de tales predicciones, pero con un grado de escepticismo razonable. Todo esto cambió para mí en lo más crudo del confinamiento del 2020. Andaba yo deambulando por YouTube en búsqueda de vídeos interesantes relacionados con la IA y llegue a uno muy curiosos y que da título a este post, y que atrajo mi curiosidad: 1la consciencia no es computable. En este vídeo, un más que lúcido Sir Roger Penrose, físico, matemático y filósofo, es entrevistado por el vlogger Lex Fridman, experto en IA y conducción autónoma.
He de decir que, aunque el nivel científico de lo expuesto en el vídeo es muy alto, la lucidez, detalle y afabilidad demostradas por Penrose, me atrapó y logró mantenerme atento durante toda la entrevista. Especialmente, hay una parte que me pega a la silla y me hace rebobinar varias veces para tratar de comprender con el mayor detalle posible. La entrevista empieza directamente con esta tesis demoledora (la mantengo en inglés por ser más fiel): «I´ m trying to say that whatever consciuosness is, it´s not a computation…it´s not a physical process which can be described by computation».
Durante la entrevista, Penrose explicó cómo su curiosidad por la neurofisiología le llevó a explorar los principios básicos de la física, la cosmología, las matemáticas y la filosofía en su libro de 1989 «The Emperor´ s New Mind» para proponer que el pensamiento humano nunca podría ser emulado por una máquina, en contra de las tesis «mainstream» de entonces acerca de cómo las computadoras usando «inteligencia artificial» pronto podrían hacer todo lo que un humano puede hacer.
¿Qué le lleva a asegurar de forma tan tajante la imposibilidad de emular la consciencia humana mediante un ordenador? ¿No se supone que juntando muchos chips de nuestros ordenadores podemos superar el número de neuronas de nuestro cerebro y su capacidad de computación ( si me permitís esa burda comparación)?. Igual que la vida no es un conjunto de células agrupadas en órganos, la «emulación» de las capacidades del cerebro no es una cuestión de agrupar un alto número de transistores y sus impulsos eléctricos. Todos recordamos las explicaciones de cómo las neuronas transportan la información a través de impulsos eléctricos. En su análisis de la fisiología del cerebro, Penrose, ni siquiera al final de su libro pudo llegar a explicar completamente como era posible que las señales nerviosas pudiesen transmitirse mediante impulsos eléctricos de forma coherente por el cerebro. Algo no le cuadraba o le faltaba en su teoría. Pero parece que, a un lector de su libro, el anestesiólogo Stuart Hameroff, fue al único que le cuadró. «Creo que te has olvidado de algo, ¿ no sabes lo que son los microtúbulos?» le dijo a Penrose. «Es lo que te falta para que funcione tu teoría». Los microtúbulos podrían ser la respuesta a la búsqueda de Penrose sobre una fuente no computable en la consciencia humana, desde un punto de vista fisiológico.
¿Pero qué demonios son los microtúbulos? Que me perdonen los biólogos moleculares, pero parece ser que son unas estructuras moleculares de forma tubular que encontramos en las diferentes células de nuestro cuerpo, desde los glóbulos rojos hasta las neuronas. Estas estructuras que «habitan» las interconexiones de nuestras células grises, tienen la propiedad de conservar de una manera muy efectiva su estado (estado de tipo cuántico, pero esto lo dejamos para otro post) y permiten que de alguna forma volvamos a ser los mismos que éramos tras una pérdida de consciencia, por ejemplo, después de una anestesia. Podríamos decir que estos microtúbulos son la unidad almacenamiento (cuántico) básico de nuestro cerebro. Algunos científicos los llaman «el cerebro de la neurona«.
Otra de las razones para poder aspirar a emular el cerebro ha sido poder replicar el número de conexiones que existen entre nuestras neuronas. Es un número bastante grande en realidad. Se estima que cada neurona posee un promedio de 1.000 conexiones. Con 86.000 millones de neuronas esto nos daría unos 86 billones de conexiones. Aunque los números dan vértigo, para algunos expertos parecen conseguibles con la capacidad de cálculo actual en operaciones por segundo (FLOP) de los procesadores. Volviendo al M1 de Apple, este procesador declara ser capaz de efectuar 2.6 TFLOP, 2.6 billones de operaciones por segundo (10 elevado a la 12 ceros). Otra vez, un número aparentemente «cercano» a nuestras conexiones si juntamos un montón de chips trabajando a la vez. Con la aparición fulgurante de chatGPT el debate está más candente que nunca. Sus capacidades ya son casi humanas y sus 175 mil millones de parámetros nos proporcionan una ilusión de comprensión. Pero parece que la consciencia es algo más que conexiones o parámetros de modelo matemático ¿no?
Si nos centramos únicamente en la cuestión cuantitativa y volvemos a los microtúbulos que habitan nuestras neuronas, ¿cuántos de ellos podemos tener? La neurobiología dice que algo más de 1.000 microtúbulos por cada una de nuestras 86 mil millones de neuronas, o sea, 86.000.000.000.0000 microtúbulos (86 billones, similar a las conexiones neuronales) que «almacenan la información cuántica» en la que algunos científicos afirman, reside nuestra consciencia. Podríamos decir en realidad que nuestro cerebro es un ordenador cuántico, ¿no os parece?. Vaya, siento caer de nuevo en una analogía computacional. Volvamos de nuevo a la tecnología para finalizar este post. IBM, promete un ordenador cuántico de 1.000 qubits para 2023. Bastante inferior a los 86 billones de microtúbulos de nuestra cabecita. En mi humilde opinión, y comparando solo aspectos cuantitativos de capacidades de computación actuales y futuras, la denominada singularidad tecnológica informática actual e inteligencia artificial se encuentra aún muy lejos o parece casi inalcanzable. No sé vosotros, pero yo todavía veo un poco lejos la singularidad tecnológica, ¿no os parece?
1 Capacidad del ser humano de reconocer la realidad circundante y de relacionarse con ella
Parece mentira, pero ya han pasado 5 años desde que en CARTIF inauguramos nuestro blog con el post sobre la Industria 4.0 en el que analicé algunas de las claves de la llamada “cuarta revolución industrial” y como podría afectar a la industria de nuestro país. Siempre me ha parecido arriesgado tratar de definir esta revolución desde dentro. Supongo que el tiempo y la perspectiva histórica nos dejara más claro si de verdad ha sido una revolución o simplemente un mantra tecnológico. Abróchense los cinturones porque, si aún no hemos asimilado esta revolución, ahora nos “amenazan” con la siguiente, Industria 5.0 la llaman. Original, ¿verdad?
Si la cuarta prometía interconectar los medios productivos de toda la cadena de valor para hacer una transición a la industria inteligente o Smart Industry (todo tiene que ser Smart como cuando hace muchos años cualquier electrodoméstico que se preciase necesitaba llevar “fuzzy logic”), la quinta revolución industrial, trata de humanizar el concepto más allá de solo producir bienes y servicios con fines de lucro económicos. El reto de esta revolución pretende incluir en su propósito consideraciones sociales y ambientales. Las palabras clave de esta revolución, según la definición de la Comisión Europea, deben ser: enfoque centrado en el ser humano, sostenibilidad y resiliencia.
Al desarrollar tecnologías innovadoras con un enfoque centrado en el ser humano, la Industria 5.0 puede apoyar y empoderar a los trabajadores, en lugar de reemplazarlos; asimismo, otros enfoques complementan esta visión desde el punto de vista del consumidor de tal forma que pueda tener acceso a productos lo más personalizados posibles o adaptados a sus posibilidades, de tal forma que conceptos como alimentación personalizada o ropa hecha a medida se apliquen virtualmente a cualquier producto de consumo.
La sostenibilidad en el desarrollo de la industria necesita compatibilizar los objetivos de progreso económico y ambiental. Para conseguir los objetivos ambientales comunes es necesario incorporar nuevas tecnologías e integrar las existentes repensando los procesos de fabricación introduciendo los impactos ambientales en su diseño y operación. La industria debe ser un ejemplo en la transición verde.
La resiliencia de la industria implica desarrollar un mayor grado de robustez en su producción, preparándola contra interrupciones y asegurando que pueda responder en tiempos de crisis como la pandemia de la COVID-19. El enfoque actual de producción globalizada ha demostrado una gran fragilidad durante la pandemia que nos asola. Las cadenas de suministro deben ser también suficientemente resilientes, con capacidad de producción adaptable y flexible, especialmente en aquellos aspectos productos que satisfacen necesidades humanas básicas, como la atención médica o la seguridad.
Al igual que la cuarta necesitaba de unos habilitadores digitales, esta nueva revolución necesita aspectos tecnológicos que la ayuden a materializarse. Desde un punto de vista práctico podemos decir que los habilitadores que revisamos hace un tiempo son de plena actualidad para la Industria 5.0. Podríamos incluir algunos adicionales como la computación cuántica o el block-chain, incipientes hace 4 o 5 años. Si los habilitadores son similares, ¿por qué estamos hablando de una nueva revolución? Es cuestión de prioridades. Si en la cuarta se habla de una hiper-conectividad de procesos al mundo digital a través de sistemas ciberfísicos o el IoT, en la quinta se busca una cooperación entre el humano y la tecnología digital, ya sea en forma de robots industriales colaborativos, robots sociales o sistemas de inteligencia artificial que complementen o ayuden en cualquier tarea relacionada con la producción, desde instalar una puerta en un coche o decidir cómo organizar el siguiente turno de trabajo para cumplir con el objetivo de productividad de la planta de fabricación.
Con la promesa de 75 mil millones de dispositivos conectados a Internet por todo el mundo en 2025, el ‘internet de las cosas’ (IoT) abre las puertas a un futuro de oportunidades para que las empresas optimicen sus procesos, ya sea en la forma de fabricar sus productos, supervisando su calidad o vigilando las máquinas críticas en las fábricas: hornos, líneas de fabricación o almacenes refrigerados.
En nuestro día a día como consumidores, nos podemos encontrar multitud de ofertas tecnológicas en dispositivos IoT que integramos en nuestras vidas de una forma rápida y, en ocasiones, impulsiva, ya sea por modas o beneficios reales. Sin embargo, la incorporación de estas tecnologías en las empresas no se realiza de una forma tan impulsiva, pues conlleva un estudio cuidadoso de factibilidad y rentabilidad, en muchas ocasiones complejo de demostrar, como sucede habitualmente con las tecnologías nuevas.
A estos factores, se une la flexibilidad del IoT para integrarse en las infraestructuras IT de las fábricas. La ‘i’ de IoT significa “internet”, lo que parece que lleva asociado automáticamente una conexión directa a Internet de “cosas” en las fábricas, y esto genera pánico por posibles amenazas de ciberseguridad para casi cualquier empresa. Para luchar contra estas barreras, la información y la formación son aspectos clave.
En este marco, se desarrolla el proyecto de cooperación transfronteriza España-PortugalIOTEC, que tiene como objetivo crear una red de colaboración de diferentes actores (investigadores, organismos públicos, proveedores de soluciones TIC y empresas industriales) de ambos países que facilite la creación e integración del IoT en las empresas. Los participantes en IOTEC hemos analizado diferentes empresas industriales y TIC para buscar carencias y fortalezas y poder así relacionar la oferta y la demanda de IoT. Desde CARTIF, coordinamos las actividades alrededor de las empresas industriales con el objetivo de conocer sus necesidades de IoT a través de un análisis detallado de sus procesos organizativos y productivos que incluyen la gestión, el diseño del producto, su proceso de fabricación y la logística.
Este análisis detallado incluyó la realización de una serie de auditorías tecnológicas a diferentes empresas agroindustriales, analizando el potencial de aplicación de IoT en diferentes partes de su proceso productivo. Se evaluaron 40 parámetros organizativos diferentes según la metodología definida dentro del proyecto IOTEC. Por ejemplo, en el apartado de los procesos de fabricación, se analizaron minuciosamente cuatro aspectos de gran relevancia:
El tipo de proceso o transformación productiva, que queda definido fundamentalmente por aspectos como las materias primas usadas o los pasos de fabricación.
Los requerimientos de trazabilidad de las materias primas, los productos intermedios y productos finales. Esta trazabilidad tiene especial relevancia en las empresas agroalimentarias.
El control del proceso de producción que se desencadena por diferentes mecanismos según la empresa: ordenes de producción, bajo demanda, disponibilidad de materias primas (e.g. vendimia).
La necesidad de captura de datos en plantacomo primera fase de digitalización completa de un proceso productivo.
Una vez analizados todos los parámetros, se realizó una clasificación exhaustiva de diferentes tecnologías IoT que podrían ser de aplicación en la industria y tener un impacto directo en la mejora de la eficiencia. A continuación, pueden verse dichas tecnologías:
Todas las tecnologías identificadas fueron priorizadas por los asistentes al «Foro de oportunidades de negocio a través de IoT y Blockchain» que tuvo lugar el pasado 14 de noviembre de 2018 en Valladolid. Los asistentes al evento tuvieron la oportunidad de reflexionar y votar sobre este conjunto de tecnologías para valorar su necesidad y la importancia de su difusión por parte del proyecto IOTEC. Una vez establecidas estas prioridades, ahora es necesario darlas a conocer para que los proveedores de soluciones IoT puedan adecuar sus ofertas a necesidades reales.
Asimismo, se trabaja en actividades de difusión y formación para acercar las tecnologías IoT y ejemplos concretos de su aplicación al conjunto de empresas industriales de las regiones de Castilla y León y Centro de Portugal participantes en la red IOTEC. Cualquier empresa proveedora o demandante de tecnologías IoT puede participar en el foro del proyecto y beneficiarse de forma directa a través de oportunidades de colaboración y formación en este apasionante conjunto de soluciones tecnológicas como es el IoT.
El Big Data como uno de los llamados “habilitadores digitales” de la Industria 4.0 es, sin duda, una de las tecnologías más prometedoras para contribuir a la revolución en las fábricas, lugares donde grandes cantidades de datos esconden una enorme cantidad de conocimiento y posibles mejoras para los procesos de fabricación.
La Agenda Estratégica de Investigación e Innovación (SRIA) de la Big Data Value Association (BDVA) define los objetivos generales, las principales prioridades técnicas y no técnicas y una hoja de ruta de investigación e innovación para la Asociación Público-Privada Europea (PPP) sobre Big Data. Dentro de las expectativas actuales del futuro Mercado de Datos en Europa (alrededor de 60 B€), la fabricación estuvo en primer lugar en 2016 (12,8 B€) y en las proyecciones para 2020 (17,3 B €).
La BDVA adoptó la definición del concepto «industria manufacturera inteligente» (SMI, del inglés Smart Manufacturing Industry), que incluye toda la cadena de valor alrededor de la producción de bienes. Identificó, además, tres grandes escenarios para representar las diferentes características de una SMI en Europa: Fábrica inteligente, Cadena de suministro inteligente y Ciclo de vida del producto inteligente.
Para contextualizar estos desafíos de investigación, la asociación BDVA ha definido cinco áreas técnicas para investigación e innovación dentro de la comunidad BDVA:
Gestión de datos y ciclo de vida, motivado por la explosión de datos, donde los medios tradicionales de almacenamiento y gestión de datos ya no son capaces de hacer frente al tamaño y la velocidad de los datos generados.
Arquitecturas de procesamiento de datos, originadas por el rápido desarrollo y adopción de la internet de las cosas (IoT) y la necesidad de procesar cantidades inmensas de flujos de datos de sensores.
Análisis de datos, que tiene como objetivo el progreso de las tecnologías y el desarrollo de capacidades para convertir el Big Data en valor, pero también para que esos enfoques sean accesibles al público en general.
Protección de datos, que aborda la necesidad de garantizar el uso correcto de la información a la vez que garantiza la privacidad del usuario. Incluye tecnologías avanzadas de protección de datos, privacidad y anonimización.
Visualización de datos e interacción con el usuario, que abordan la necesidad de medios avanzados de visualización y de interacción con el usuario capaces de manejar continuamente la complejidad y el tamaño de los datos crecientes y ayudar al usuario a explorar y comprender el Big Data de manera efectiva.
A lo largo de 2016 y 2017, los expertos de la BDVA destilaron una serie de desafíos de investigación para los tres grandes escenarios de fabricación inteligente comentados anteriormente. Estos desafíos se mapearon en las cinco áreas de prioridad técnica del modelo de referencia de Big Data previamente comentadas.
Para ejemplificar los resultados de este mapeo, la siguiente figura reúne los títulos del conjunto de desafíos identificados y discutidos por los miembros de la BDVA para el Escenario Smart Factory. Se anima a los lectores interesados a analizar el conjunto completo de desafíos en el documento de orientación SMI.
Los desafíos establecidos inicialmente en esta primera versión del documento de orientación de SMI marcarán el tono para las próximas necesidades de investigación en diferentes áreas de Big Data relacionadas con la fabricación.
En el escenario Smart Factory, la atención se centra en la integración de múltiples fuentes de datos que provienen no solo del taller, sino también de las oficinas, tradicionalmente separadas en la Industria 3.0. La interoperabilidad de los sistemas de información existentes y el desafío de integrar tecnologías disruptivas de la IoT son pruebas importantes en el área de gestión de datos. Más cerca de las necesidades de una fábrica inteligente, los desafíos en analítica de datos se centran en el análisis prescriptivo como herramientas para un proceso de toma de decisiones óptimo en la gestión de operaciones de fabricación, incluida la optimización a través del nuevo concepto de gemelo digital.
20 de julio de 1969, son las 20:18:04 UTC y después de 102 horas, 45 minutos y 39.9 segundos de viaje, “el águila ha aterrizado” y Neil está a punto de descender por la escalera y tocar una superficie desconocida por primera vez: “Un pequeño paso para el hombre, un gran paso para la Humanidad”. Aquel 1969, Neil Armstrong, Michael Collins y «Buzz» Aldrin cambiaron la historia a bordo del mayor cohete construido con destino a la luna.
Muchos lo habrán olvidado, otros como yo ni siquiera habíamos nacido, pero la carrera espacial sufrió una transformación digital similar a la que perseguimos para transformar la industria. El programa Apolo fue la culminación de aquella primera revolución digital en la exploración del espacio.
El alunizaje fue conseguido en parte gracias a la electrónica a bordo del módulo lunar, el ordenador de navegación del Apolo (AGC, del inglés Apollo Guidance Computer). El ordenador AGC fue uno de los primeros ordenadores basados en circuitos integrados digitales. Con “apenas” 32 kgs de peso y unos 55W de consumo, esta maravilla técnica era capaz de coordinar y controlar muchas tareas de la misión espacial, desde calcular la dirección y los ángulos de navegación de la nave, hasta comandar los controles de posición por reacción y orientar la nave en la dirección deseada. Asimismo, el ordenador incluía una de las primeras demostraciones de control «fly-by-wire” con los cuales el piloto no comandaba directamente los motores de la nave sino a través de unos algoritmos de control programados en el ordenador de vuelo. De hecho, el ordenador AGC fue la base para los siguientes controles “fly-by-wire” del transbordador espacial, así como de aviones militares y comerciales.
Pero como pasa con este tipo de innovaciones, no suceden de un día para otro sino a partir de innovaciones incrementales previas.
Durante los años 50, el MIT Instrumentation Laboratory (MIT IL) desarrolló el sistema de guiado de los misiles Polaris. Este sistema fue construido inicialmente con circuitos analógicos, pero decidieron empezar a usar circuitos digitales para garantizar la precisión requerida para calcular las trayectorias de los misiles y sus algoritmos de control.
Antes de que el presidente Kennedy fijase el ambicioso objetivo de “… viajar a la Luna en esta década …” siete años antes del primer alunizaje, y después de la puesta en órbita del Sputnik en 1957, el MIT IL comenzó un estudio de exploración de Marte mediante una sonda. El diseño de esta sonda sentó las bases del futuro sistema de guiado del Apolo e incluía varios giróscopos para orientar la sonda, un ordenador digital y un telescopio para orientar la sonda en relación a la Luna y las estrellas.
El lanzamiento del Sputnik avivó la ambición de los EEUU por ser el primer país en poner un hombre en el espacio, pero creó el debate público acerca del rol más adecuado para los pilotos en la carrera espacial. Una discusión similar a la actual respecto del rol del trabajador en las fábricas. ¿El astronauta debería ser otra “carga” más a bordo de la nave o tomar el control completo de la misma? Una vez que los pilotos de pruebas se ganaron la responsabilidad de tomar el control de las naves, numerosos test mostraron que era prácticamente imposible controlar todos los aspectos de las misiones debido a la las rápidas reacciones y la gran cantidad de mandos de control. Por lo tanto, los pilotos necesitarían algún tipo de ayuda automática y fiable, y esa fue una de las principales funcionalidades del ordenador AGC.
La fiabilidad se convirtió entonces en una de las principales preocupaciones de la misión. El programa Polaris tardó cuatro años en diseñar el control de guiado para un arma que debía permanecer en el aire durante varios minutos. La apuesta de Kennedy de poner un hombre en la luna en menos de siete años significaba desarrollar otro sistema de guiado y control para una nave espacial que debería funcionar sin fallos en un viaje de más de una semana de duración. Los niveles requeridos de fiabilidad eran, por lo tanto, más de dos niveles de magnitud superiores. Si un misil Polaris fallaba, se podría disparar otro. Un fallo en la nave espacial podría matar a un astronauta.
Mucha de la fiabilidad del viaje a la Luna estaría soportada por el ordenador AGC y en cierto momento del programa Apolo había demasiadas tareas planificadas (e.g. maniobras complejas) como para ser controladas con circuitos digitales independientes. Para llevar a cabo estas tareas hacía falta un software. Aunque este concepto apenas se tuvo en cuenta en el principio del programa Apolo, significó la diferencia entre el fracaso o el éxito de todo el proyecto. El ordenador AGC se convirtió en el interfaz entre el astronauta y la nave, que finalmente significaría que el ordenador “controlaba” la nave, una revolución para la época. Hoy en día, el software está en todas partes, pero en los años 60, el software era considerado como un conjunto de instrucciones en tarjetas perforadas. Los programas del ordenador AGC (fijados entre tres y cuatro meses antes de cada lanzamiento) estaban “cableados” mediante ferritas y cables en una memoria permanente (y muy fiable) pero ahorraron mucho tiempo, esfuerzo y presupuesto. De hecho, puede decirse que el software del Apolo era más un “firmware” utilizando la terminología actual.
El reto actual de revolucionar la industria a través de la transformación digital no puede ocurrir sin la ayuda de los denominados habilitadores digitales. Hace 48 años, los primeros circuitos digitales integrados y los primeros programas fueron los habilitadores que permitieron conseguir aquel “pequeño paso para el hombre”. Hoy, el típico “la transformación digital no es una opción”, puede sonar a cliché o eslogan comercial, pero echando una mirada hacia atrás en la historia, la transformación digital del programa Apolo significó la diferencia entre poner o no poner la primera huella humana en la Luna.