Inteligencia Artificial y Análisis inteligente de Datos: ¡¡estadística y matemáticas, no magia!!

Inteligencia Artificial y Análisis inteligente de Datos: ¡¡estadística y matemáticas, no magia!!

Inteligencia Artificial, Machine Learning, Deep Learning, Dispositivos Inteligentes…,- términos con los que constantemente nos bombardean en los medios de comunicación haciéndonos creer que estas tecnologías son capaces de hacer cualquier cosa y resolver cualquier problema al que nos enfrentemos. ¡¡Nada más lejos de la realidad!!

Según la Comisión Europea1, «los sistemas de inteligencia artificial (IA) son sistemas de software (y en algunos casos también de hardware) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno a través de la obtención de datos, la interpretación de los datos estructurados o no estructurados que recopilan, el razonamiento sobre el conocimiento o el procesamiento de la información derivados de esos datos, y decidiendo la acción o acciones óptimas que deben llevar a cabo para lograr el objetivo establecido»

La IA engloba múltiples enfoques y técnicas entre las que se encuentran el aprendizaje automático, el razonamiento automático y la robótica. Dentro de ellas centraremos nuestra reflexión en el aprendizaje automático a partir de datos, y más concretamente en el Análisis Inteligente de los Datos orientado a extraer información y conocimiento que nos ayude a tomar decisiones. Se trata de esos datos (históricos o en continuo) que son almacenados por las empresas a lo largo del tiempo y que muchas veces no son puestos en valor. Esos datos que reflejan la realidad de una actividad en concreto y que nos van a permitir crear modelos estadísticos y matemáticos (en forma de reglas y/o algoritmos) que contienen información acerca de cómo es la realidad, de cómo son las cosas tal y como ocurren en la actualidad. ¿Cuáles son entonces los actores principales que intervienen en cómo «cocinar» los datos para obtener información relevante? Los datos, que serán nuestros «ingredientes»; los algoritmos, capaces de procesar esos datos, que serán nuestras «recetas»; los informáticos y matemáticos, que serán los «jefes de cocina» capaces de mezclar correctamente los datos y los algoritmos; y los expertos de dominio, que serán nuestros «catadores» particulares y cuyo cometido será validar los resultados obtenidos.

En primer lugar los datos, esos datos a partir de los cuales queremos extraer información con la que generar modelos o hacer predicciones. Mediante un proceso de aprendizaje continuo de prueba y error, basado en analizar cómo fueron las cosas en el pasado, que tendencias había, que patrones se repetían, etc. se pueden generar modelos y realizar predicciones que serán tan «buenas» como lo son los datos. No es cuestión de cantidad de datos, sino de su calidad. ¿Qué significa eso exactamente? Significa que si a un sistema de IA le enseñamos a multiplicar (dándole ejemplos de multiplicaciones correctas) sabrá hacer esa tarea (multiplicar) pero nunca sabrá restar o dividir. Y que si le damos ejemplos ‘incorrectos’ (3*2=9 en lugar de 3*2=6) aprenderá a multiplicar, pero de forma errónea. Necesitamos por tanto que los datos, ingredientes fundamentales de nuestra receta, estén bien organizados, sean de calidad y podamos confiar en ellos (deben ser relevantes).

Por otro lado están los algoritmos de IA, nuestras «recetas» que nos dicen cómo mezclar correctamente los «ingredientes», como utilizar los datos disponibles para intentar resolver nuestro problema. Son algoritmos que nos permiten construir sistemas informáticos que emulan la inteligencia humana a la hora de automatizar tareas. Sin embargo no todos los algoritmos sirven para resolver cualquier tipo de problema. ¿Qué hay entonces en el «interior» de estos algoritmos? Se trata principalmente de fórmulas matemáticas y estadísticas propuestas hace décadas y cuyas bases han avanzado poco en los últimos años, pero que son ahora más efectivos gracias, no solo al aumento en la cantidad de datos que pueden analizar, sino también al aumento en la potencia de cálculo de los ordenadores, que está permitiendo realizar cálculos mucho más complejos, en menos tiempo y a bajo coste. Sin embargo, aptitudes como la intuición, la creatividad o la consciencia son habilidades humanas que (de momento) no hemos conseguido transferir a una máquina de forma efectiva. Serán, por tanto, – nuestros «jefes de cocina» y nuestros «catadores» los encargados de aportar esos factores humanos en nuestra particular «cocina».

Es por ello que no todos los problemas se pueden resolver utilizando IA ¿Por qué? Porque ni los datos son capaces de «hablar» por si solos, ni son «portadores» de la verdad absoluta, ni los algoritmos son «videntes» capaces de adivinar lo impredecible. Lo que realmente saben hacer los datos y los algoritmos es contestar a las preguntas que les planteamos tomando como base el pasado, siempre y cuando las preguntas planteadas sean las adecuadas. Tras el fallo de una máquina, ¿ cómo se relacionan matemáticamente los datos proporcionados por los sensores que monitorizan la máquina con el fallo producido? Cuando se analiza una imagen, ¿ cómo de parecida es a las imágenes que se han analizado previamente? Cuando se le hace una pregunta a un asistente virtual, ¿ qué respuesta se ha dado más habitualmente en el pasado a esa misma pregunta? Se trata, por tanto, de interrogar a los datos de la forma correcta para que nos revelen la información que queremos.

A lo largo del último siglo la IA ha logrado sobrevivir a varios ‘inventos’ tecnológicos con escasez de financiación e investigación, provocados principalmente por el entusiasmo descontrolado que se puso en la tecnología los años previos2. Ha llegado al momento de «aprender» de nuestros datos históricos y no volver a cometer los mismos erros. Reconozcámosle a la IA las capacidades que realmente tiene y dejemos a los magos de su capacidad de hacer realidad lo imposible. Solo de esta forma la IA entrará en una primavera perpetua.


1 https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1

2 https://link.springer.com/chapter/10.1007/978-3-030-22493-6_2

El valor de los datos en el transporte

El valor de los datos en el transporte

El pasado mes de noviembre asistí a la celebración del tercer congreso de la Big Data Value Association (BDVA) en Valencia (España). La BDVA es una organización autofinanciada sin ánimo de lucro que representa a la parte “privada” de la PPP (Colaboración Público-Privada) Big Data Value, siendo la Comisión Europea la parte “publica” de dicha colaboración.  La PPP, operativa desde 2015, tiene como principal objetivo impulsar la investigación, el desarrollo y la innovación europea dando valor a grandes cantidades de datos.

Dentro de la PPP la asociación BDVA busca:

  • Fortalecer la competitividad y asegurar el liderazgo industrial de los proveedores y usuarios finales de los sistemas y servicios basados en tecnología de Big Data;
  • promover la mayor y mejor utilización de las tecnologías y servicios de Big Data para uso profesional y privado;
  • establecer la excelencia de la base científica de creación de valor a partir de Big Data.

La BDVA cuenta actualmente con más de 150 miembros de 27 países diferentes y organiza su actividad alrededor de 9 tareas principales: Programa, Impacto, Comunidad, Comunicación, Policita y Sociedad, Técnica, Aplicación, Negocio, Habilidades y Educación.

Durante 2016 se convocaron las primeras “calls” promovidas por la PPP desde del programa H2020. En enero de 2017, los proyectos aprobados celebrarán sus reuniones de lanzamiento.  Uno de esos proyectos, en el cual participa CARTIF, es el proyecto Transforming Transport.  Nuestras tareas técnicas estarán relacionadas principalmente con el Análisis de los Datos (Data Analytics) y el acercamiento de las técnicas Big Data al entorno real de uno de los pilotos.

La aplicación de técnicas de Análisis de Datos  y/o algoritmos de Inteligencia Computacional no es nueva para CARTIF. A lo largo de los últimos años hemos realizado diferentes proyectos en el ámbito del transporte. Todos ellos tenían en común un enfoque basado en el Análisis de Datos para valorizar el conocimiento y la experiencia acumulada en las empresas, que no es aprovechada de forma sistemática por múltiples razones.

Entre estos proyectos estaba el OPTIRAIL, que desarrolló un marco de trabajo inteligente basado en conocimiento que diera apoyo a la toma de decisiones a las empresas de mantenimiento ferroviario.

En el proyecto PREFEX se implementaron modelos computacionales basados en técnicas de inteligencia computacional que permitían caracterizar el frente de excavación y predecir su futura evolución, o GEOMAF, cuyo principal objetivo fue el desarrollo de nuevas herramientas de gestión de las operaciones de mantenimiento ferroviario tanto en infraestructura como en superestructura.

Técnicamente, el proceso de análisis de datos se realiza a partir de los datos (monitorizaciones, información histórica, etc…) y del conocimiento (experiencia) de un experto del dominio. Un empleo adecuado de dichos recursos en base a las metodologías de inteligencia computacional y otras relacionadas, hace posible extraer, modelar, validar y transferir un conocimiento que permitirá a las compañías involucradas generar un mayor valor añadido a su actividad y servicios.

Aun así, la aplicación de las técnicas de análisis de datos a entornos industriales reales ha estado por debajo de lo esperado hasta el momento, por lo que es necesario seguir divulgando los beneficios que técnicas de este tipo pueden aportar tanto en el ámbito social como en el entorno industrial y de servicios. Gracias a la BDVA y a eventos como el celebrado en Valencia, está difusión tan necesaria llega cada vez a oídos de un mayor número de empresas.