¿Estamos preparados para el autoconsumo eléctrico?

¿Estamos preparados para el autoconsumo eléctrico?

Que el autoconsumo está ahí y que se va a ir imponiendo poco a poco, es evidente. Estamos preparados. En las próximas líneas se describen algunos pasos para instaurarlo en nuestros hogares.

En el tema del autoconsumo hay un concepto que nunca debemos olvidar: la eficiencia energética. Esta eficiencia debe entenderse tanto desde el lado de la generación como del consumo.

Analicemos primero la eficiencia desde el punto de vista del consumidor. Es evidente que cuanta menos energía eléctrica consuma mi casa, menor será el coste de mi instalación de autoconsumo. ¿Estamos tomando alguna medida de eficiencia para que esto se produzca? Un primer paso que se puede dar es reducir el consumo del alumbrado en el hogar. El cambio de bombillas halógenas y de bajo consumo por tecnológica led va a permitir que reduzcamos bastante el consumo eléctrico en alumbrado. Otro paso que podemos dar es ir sustituyendo nuestros electrodomésticos por otros de clase A+++ que tienen un menor consumo.

Una medida más eficiente, pero que no siempre está al alcance de nuestros bolsillos, es mejorar el aislamiento de nuestra vivienda. El aislamiento de la envolvente del edificio es fundamental. El uso de aislantes en fachadas, techos y suelos y la elección idónea de ventanas con aislamiento adecuado puede reducir el consumo de nuestro edificio.

Otras medidas pasan por el concepto de reeducación en el consumo que deberemos ir aprendiendo si queremos implantar el autoconsumo en el hogar. El simple gesto de apagar bombillas o aparatos eléctricos que no se usan, evitar dejar aparatos electrónicos en stand by (consumo fantasma) y de poner en funcionamiento los electrodomésticos en las horas del día cuando más se genera, permitirá una gestión más eficiente de nuestro sistema. Esto puede hacerse implantando un software de gestión energética SGE en nuestro hogar pero supone un coste económico añadido.

Si estamos pensando en comprar un coche eléctrico, en un futuro se podrá optar por la tecnología V2G (Vehicle to grid) con sus variantes Vehicle to Home (V2H) y Vehicle to Building (V2B). Esta tecnología permite que la energía almacenada en un coche eléctrico pueda ser inyectada a la red eléctrica o a nivel vivienda o edificio utilizando la batería del coche como sistema de almacenamiento eléctrico. De esta forma se puede conseguir una mejor integración de las energías renovables en el sistema eléctrico.

Quizás estas medidas permitirán que una vivienda consuma tan sólo 1.500 kw/h al año frente a los actuales 3.000 kw/h de consumo medio en España. Esto permitiría reducir el coste de nuestra instalación de autoconsumo, lo que supondría que muchas personas se planteen realizar esta instalación en sus hogares.

Desde el punto de vista de la generación, se está avanzando a pasos agigantados. La eficiencia de los actuales paneles fotovoltaicos que utilizan nuevos materiales con mayor vida útil, está muy lejos de los fabricados hace 10 años y el precio por w cada vez es menor llegando a valores de 0.8 € por watio instalado. Igualmente, la tecnología de las baterías cada vez las hace más eficientes y con una durabilidad mayor, soportando mayores ciclos de recarga y a un precio menor.

Pero ¿las empresas fabricantes e instaladoras van a estar preparadas para absorber la demanda creciente de los usuarios principalmente de viviendas residenciales?

Y la red eléctrica ¿está preparada para el autoconsumo? Según el operador del sistema eléctrico español, la red está preparada para la entrada a la red de cientos de miles de auto consumidores.

¿Y las compañías eléctricas? Las compañías eléctricas están dándose cuenta de que el autoconsumo tarde o temprano va a llegar para instalarse definitivamente en nuestros hogares y han empezado a mover ficha. Algunas empiezan a comercializar kits de autoconsumo, sistemas de control o contratos de mantenimiento que aseguren un correcto funcionamiento del sistema.

¿Qué necesitamos para que suene la campana definitivamente y todo empiece a funcionar? Simplemente, llegar a un punto de acuerdo donde los distribuidores (compañías eléctricas) vean a los prosumidores (actuales usuarios y futuros productores) como potenciales aliados y no como competidores.

Por una parte, las compañías eléctricas reclaman que el uso de la red de distribución debería ser pagado no solo por el consumidor actual, sino por el futuro usuario productor y como sabemos, estos costes representan más del 50% de la tarifa eléctrica actual. Pero también es verdad que las compañías se van a ahorrar los gastos de generación, difíciles de conocer actualmente.

¿Qué ocurriría si la cuerda se rompe y un gran número de usuarios deciden convertirse en generadores de su propia energía y desconectarse definitivamente de la red? Ahí es cuando entra el gobierno y, dependiendo de las leyes que aplique y en función de si son ventajosas para el consumidor, para las compañías o para ambos cuando el consumidor decida.

Cuando los edificios históricos hablan (III)

Cuando los edificios históricos hablan (III)

En dos post anteriores [ Cuando los Edificios históricos hablan (I) y (II) ] aparte de dejar clara la importancia que tiene la conservación del patrimonio construido y de relatar los factores ambientales que influyen en esa conservación, hemos ya tratado la temperatura y la humedad como los dos aspectos clave que deben vigilarse para garantizarla. De todas formas, y por si te habías olvidado, existen otros aspectos que también deben «monitorizarse» para evitar deterioros que deriven en tan costosas como largas restauraciones:

  • La iluminación (luz natural y artificial).
  • Los contaminantes.

En este blog nos vamos a meter con la iluminación, que afecta sobre todo a los bienes muebles que decoran o atesoran los edificios históricos. Sé paciente, los contaminantes les dejaremos para la próxima ( y última) entrega.

La iluminación puede ser de origen natural (procedente del sol) o artificial (procedente de fuentes eléctricas), ero independientemente de su origen es una radiación electromagnética que cubre tres rangos: infrarrojo (IR), visible (VIS) y ultravioleta (UV). Solemos denominar «luz» a la parte visible al ojo humano. La radiación UV posee una longitud de onda más pequeña que la visible y es la que tiene mayor energía asociada. Por su parte, la radiación IR tiene mayor longitud de onda que el visible y es menos energética. Tanto la radiación ultravioleta como la infrarroja no son necesarias para «ver», pero sí influyen en el deterioro de los materiales.

Cuando una obra es iluminada, bien sea un cuadro, una pintura, una policromía, un tapiz o un pergamino, todo el rango de radiación indicado (IR,VIS y UV) es absorbido por los materiales de los que está compuesta. Esta radiación lleva asociada una energía capaz de alterar y degradar la estructura molecular de muchos materiales y en especial los más «perecederos», como son los de origen orgánico (textiles, pigmentos, cuero y papel).

La componente UV, al ser la de mayor energía, es la que tiene mayor capacidad para alterar los materiales, desintegrándoles y debilitándoles, produciendo su amarilleamiento. La componente VIS es capaz de decolorar los pigmentos más sensibles. Por su parte, la componente IR, tiene un efecto de calentamiento que acelera ciertas reacciones químicas.

Si te das cuenta, parece que para los objetos que conservamos en museos, iglesias, ermitas, castillos,palacios, archivos y bibliotecas, lo más recomendable sería mantenerlos en penumbra. Sin embargo, ya sea para su estudio , para su conservación, y especialmente para su exhibición, se requiere cierta iluminación. Si guiendo los criterios del IPCE, que dipone el Plan Nacional de Conservación Preventiva (PNCP), los parámetros de evaluación de los riesgos derivados de la iluminación son estos:

  • Intensidad de las fuentes artificiales y naturales.
  • Tiempo de exposición a la iluminación del bien cultural.
  • Espectro (rango)de emisión de las fuentes de luz artificiales, conociendo si emiten en las franjas de radiación no visible.
  • Incidencia de la iluminación natural, cuál es su orientación respecto al bien, y si la radiación es directa o difusa.
  • Qué medidas de control de la iluminación existen.

A su vez, la valoración del daño producido por la iluminación debe tener en cuenta los siguientes aspectos:

  • Puesto que ese daño es acumulativo, debemos huir de los niveles de iluminación altos, pero manteniendo un nivel de compromiso para una visión adecuada. Por dar valores concretos, esto se traduce en 50 lux para los materiales más sensibles y 150-200 lux para los bienes culturales de sensibilidad media.
  • El daño causado viene determinado por la dosis de iluminación, es decir, la intensidad de iluminación durante el tiempo que está expuesta (lux/h). Así debemos tener claro que el daño en el caso de niveles de iluminación altos con exposiciones cortas sería el mismo que con niveles bajos y exposiciones más prolongadas.
  • El efecto degradativo de la iluminación depende también de otros factores del medio como la humedad y la contaminación del aire.

Por tanto, dónde colocamos nuestros bienes culturales, cómo les da la luz natural, y con qué tipo de lámparas les enfocamos, son aspectos vitales para su conservación (ver figura). En CARTIF ofrecemos asesoramiento y soluciones a medida, basadas en una experiencia contrastada de más de 20 años en investigación aplicada al Patrimonio Cultural.

iluminación edificios históricos
Iluminación de tapices flamencos en la Catedral de Palencia
¿Cómo mejorar tu planta de procesamiento sin grandes inversiones?

¿Cómo mejorar tu planta de procesamiento sin grandes inversiones?

Cualquier planta de procesamiento – continua, por lotes, híbrida – puede mejorar sus indicadores económicos, de seguridad y ambientales por dos vías: mejorando sus equipos de procesamiento o mejorando el control de esos equipos.

La mejora de los equipos de procesamiento es, usualmente, una tarea que requiere grandes inversiones, pues casi siempre implica la adquisición de nuevos equipos de procesamiento o, en el mejor de los casos, realizar costosas remodelaciones.

Por el contrario, esos indicadores de desempeño pueden ser sustancialmente mejorados por la vía del control sin hacer, en la mayoría de los casos, ninguna inversión en nuevos medios técnicos de instrumentación y control. Esto es debido a que prácticamente en todos los casos existe un amplio margen para mejorar los indicadores del desempeño de una planta de procesamiento por la vía de su control/regulación.

El origen de este margen de mejora es múltiple. Las causas más comunes son: el sistema de control no está bien diseñado o sintonizado; por desconocimiento o premuras no se aprovechan todas las prestaciones del sistema de control disponible; el programador del autómata o el ingeniero de proceso no son expertos en control; no se conocen con la profundidad requerida las dinámicas de los procesos bajo regulación automática; el diseño de la planta no ha sido realizado bajo el enfoque del diseño integrado.

Son también diversas y numerosas las actuaciones que pueden ejecutarse para mejorar las prestaciones de los lazos de regulación sin inversión alguna y que revisaremos en próximos post, tales como: afinar la sintonía de los controladores, rediseñar el controlador, implementar compensaciones anticipatorias de las perturbaciones ya medidas, afinando la sintonía de los lazos de regulación en cascada, rediseñando o resintonizando los controladores de nivel de los depósitos amortiguadores o de compensación intermedios si fuera necesario, utilizando un algoritmo de regulación avanzado disponible o soportable por el instrumento controlador, reduciendo el acoplamiento entre lazos, haciendo un montaje mejor de la sonda de medición, etc.

En su inmensa mayoría, las plantas de procesamiento están automatizadas bajo estructuras de control (lazo de control básico, control en cascada, control de rango dividido, control selectivo, lazos acoplados, etc.) basadas en el controlador universal PID, en todas sus particularizaciones (P, PI, PD, PID, PI_D, etc.).

A pesar de su longevidad y del desarrollo de múltiples técnicas de control avanzado, el control PID mantiene una abrumadora presencia en la industria de proceso.

Su uso extensivo en la industria es tal que, todas las encuestas que conozco concluyen de forma unánime en que más del 95% de los lazos de control existentes son del tipo PID. Sin embargo, también numerosas encuestas concluyen que un alto porcentaje de los lazos con control PID en el mundo son operados en modo manual, mientras que otro porcentaje similar opera defectuosamente. Por ejemplo, como se muestra en la siguiente figura, en la que se reporta que solo el 16 % de los lazos de regulación PID están óptimamente sintonizados y su desempeño es, por tanto, excelente.

No hay duda de que, en la mayoría de los casos, la incorrecta o deficiente sintonización del controlador puede ser la causa del pobre desempeño del lazo de control o de sus irregularidades en la operación.

Sin embargo, no debe olvidarse que los sistemas de regulación automáticos son sistemas holísticos, y como tales deben ser analizados en su conjunto y no solo a través de las partes que los componen. Por eso es necesario revisar los otros componentes del lazo antes de decidir qué actuación se debe ejercer sobre dicho lazo.

De aquí que el procedimiento de actuación en todos los casos, deba comenzar con una revisión en campo de todos los componentes del lazo (controlador, proceso, actuador, medidor y canales de comunicaciones), así como un análisis de la posibilidad de acoplamientos con otros lazos del proceso.

Del resultado de esta primera fase se determinará qué actuación concreta corresponde realizar para solucionar el mal desempeño del lazo de regulación automática.

CARTIF ofrece este servicio de optimización del desempeño de los sistemas de regulación para una planta de procesamiento. La optimización reduce las oscilaciones y la variabilidad de la planta de producción, haciendo más exacto, rápido, estable y seguro al sistema de regulación, y de este modo mejorar su eficiencia, seguridad, impacto ambiental y rentabilidad.

En próximas entradas iré describiendo el procedimiento de ejecución para cada una de las actuaciones posibles, comenzando por la más simple, la resintonía del controlador.

Nuevas aplicaciones del Deep Learning

Nuevas aplicaciones del Deep Learning

Hace algo más de un año, en otra entrada de este blog, nuestro compañero Sergio Saludes ya comentó lo que es el aprendizaje profundo y se detallaron varias de sus aplicaciones (como la victoria de una máquina basada en estas redes sobre el campeón mundial de Go, considerado el juego más complejo del mundo).

Pues bien, en estos 16 meses (todo un mundo en estos temas) se ha avanzado enormemente en el número de aplicaciones y la calidad de los resultados obtenidos.

Considerando por ejemplo el campo de la medicina hay que decir que cada vez son más utilizadas las herramientas de diagnóstico basadas en aprendizaje profundo, consiguiendo en algunos casos mayores tasas de acierto que los especialistas humanos. En especialidades concretas como la radiología estas herramientas están suponiendo una gran revolución y en industrias relacionadas como la farmacéutica también se han aplicado con éxito.

En sectores tan variados como la seguridad industrial, se han utilizado recientemente para detectar grietas en reactores nucleares, se han comenzado a emplear también en el mundo de las finanzas, predicción de consumo energético  y en otros campos como la meteorología y el estudio de las olas marinas.

Los proyectos de conducción autónoma de vehículos, tan en boga actualmente, usan principalmente herramientas basadas en aprendizaje profundo para calcular muchas de las decisiones a tomar en cada caso. Respecto a este tema, hay una cierta preocupación en cómo estos sistemas decidirán qué acciones llevar a cabo, especialmente cuando hay en juego vidas humanas y ya hay una página del MIT donde el público en general puede colaborar en la creación de una ética del coche autónomo. Realmente estos dispositivos solo pueden decidir lo que previamente haya sido programado (o entrenado) y seguramente falta mucho para que las máquinas puedan decidir por sí mismas (en el sentido convencional de “decidir”, aunque esto daría lugar a un debate mucho más complejo sobre otros temas como la singularidad).

Con respecto al programa de Go comentado anteriormente (que batió al campeón mundial  por 4 a 1), se ha desarrollado una nueva versión (Alpha Go Zero) que ha batido por 100 a 0 a dicha versión anterior simplemente conociendo las reglas del juego y entrenándose contra sí misma.

En otros ámbitos como la traducción de lenguas, comprensión y síntesis de la voz, también han avanzado de forma muy notable y el uso de asistentes personales en el teléfono móvil se está empezando a generalizar (si es que vencemos el natural rechazo o vergüenza a “conversar” con una máquina).

En CARTIF también se está trabajando en sistemas de aprendizaje profundo desde hace ya tiempo y se han desarrollado diferentes tipos de soluciones, como la clasificación de imágenes de patrimonio arquitectónico dentro del proyecto europeo INCEPTION.

Todos estos desarrollos informáticos llevan asociado un alto coste computacional, especialmente en lo relativo al entrenamiento necesario de las redes neuronales utilizadas. A este respecto se está avanzando en los dos frentes implicados: hardware, mucho más rápido y potente y algoritmos, más evolucionados y optimizados.

Parece que el aprendizaje profundo es el santo grial de la inteligencia artificial en vista de los avances realizados en este campo. Puede que no sea así y simplemente estemos ante una nueva herramienta más, pero de lo que no cabe duda es de que es una herramienta extremadamente potente y versátil que dará origen a nuevos y prometedores desarrollos en muchas aplicaciones relacionadas con la inteligencia artificial.

Por supuesto, surgen muchas voces que alertan de los posibles peligros de este tipo de sistemas inteligentes. Lo cierto es que nunca está de más prevenir los riesgos potenciales de cualquier tecnología aunque, como dice Alan Winfield, más que a la inteligencia artificial es a la estupidez artificial a lo que habría que tener miedo, ya que, como siempre ocurre en estos casos, el peligro de cualquier tecnología está en el mal uso que se le puede dar y no en la tecnología en sí misma. Ante este reto lo que debemos hacer es promover mecanismos que regulen cualquier uso no ético de estas nuevas tecnologías.

Realmente estamos solo ante el comienzo de otra era dorada de la inteligencia artificial, como ha habido varias anteriormente, aunque esta vez sí parece que puede ser la definitiva. No sabemos hacia dónde nos llevará esta etapa, pero confiando en que sabremos aprovechar las posibilidades que se nos brindan, debemos ser optimistas.

Los precios dinámicos de la electricidad y las lavadoras con iniciativa

Los precios dinámicos de la electricidad y las lavadoras con iniciativa

Cuando todos podamos beneficiarnos de la smart grid, veremos cómo una lavadora toma vida y cómo, casi, tendrá iniciativa propia. Y lo hará para que paguemos menos por la electricidad que necesita para hacer su trabajo. Y lo mismo harán el lavaplatos, el calentador y otros electrodomésticos devoradores de energía eléctrica. Esto será una consecuencia de las ventajas de los precios dinámicos, que cambiarán a lo largo del día para animarnos a usar la energía cuando sobra y para disuadirnos de usarla cuando falta.

Para estudiar la mejor manera de aprovechar los precios dinámicos, en Bélgica han desarrollado un proyecto que involucró a 250 familias que tenían instalados en sus casas electrodomésticos inteligentes. En concreto lavadoras, secadoras, lavaplatos, calentadores eléctricos y cargadores de coches eléctricos. Que sean inteligentes quiere decir que tienen comunicación con el exterior y les llega información sobre los precios y que pueden ponerse en marcha sin intervención de sus dueños. El día fue dividido en seis tramos, en vez de una simple diferencia entre día y noche, y el precio en cada tramo fue fijado en función del precio de mercado correspondiente a ese tramo horario. Dividieron a los clientes en dos grupos.

Al primer grupo le informaron de los precios de la electricidad en cada uno de los tramos horarios con un día de antelación. La información les llegaba a los clientes a través de una app instalada en una tableta. Con esa información los clientes eran responsables de planificar cuándo usarían cada electrodoméstico durante el día siguiente.

El segundo grupo tenía electrodomésticos que reaccionaban automáticamente a los precios dinámicos sin dejar de lado las preferencias de sus dueños. Por ejemplo, una familia podía querer tener los platos listos para la cena, digamos a las seis de la tarde (parece ser que en Bélgica cenan a esas horas). A las ocho de la mañana, al salir para el trabajo, encendían el lavaplatos y lo programaban para que a las seis hubiera terminado. En el caso de un programa que necesitara dos horas para terminar, el lavaplatos sabía que tenía que ponerse en marcha entre las ocho de la mañana y las cuatro de la tarde para que sus dueños se encontraran los platos listos a las seis de la tarde. El lavaplatos elegía para ponerse en marcha el tramo horario en el que la electricidad fuera más barata, a no ser que éste ocurriera después de las cuatro de la tarde. En ese caso daba preferencia a las necesidades de sus dueños y se ponía en marcha en algún momento que le permitiera tener los platos listos a las seis y que todavía tuviera alguna ventaja económica. Otros electrodomésticos, como el calentador, simplemente evitaban los tramos más caros para hacer su trabajo.

Los clientes que seguían el método manual encontraron el proceso demasiado cansado y lo fueron abandonando poco a poco. Sin embargo, los que seguían el método automático no sintieron que afectara a sus vidas y terminaron encantados con el sistema. Estas familias vieron cómo sus electrodomésticos adquirieron hábitos noctámbulos y que su gasto en electricidad disminuía en un 20% para el lavaplatos, un 10% para la lavadora y secadora y un 5% para los calentadores eléctricos. Probablemente calentadores eléctricos con un aislamiento térmico mejorado habrían permitido aprovechar mejor los tramos horarios más baratos.

Una de las conclusiones de este proyecto, es que los clientes no parecen muy dispuestos a estar todos los días pendientes de los precios de la electricidad y a planificar cuidadosamente el uso de los electrodomésticos. Esto parece lógico si cada uno de nosotros se pone a pensar en sus propias actividades y en el esfuerzo que supone esa manera de hacer las cosas. Este resultado es curioso si lo comparamos con el éxito que la compañía Opower decía tener en la reducción de la demanda de energía en casas particulares, lo que se traduce en menores facturas y menos CO2 emitido a la atmósfera. Hasta Obama fue a visitarlos. Y digo que es curioso porque interactuaba con los clientes de una manera parecida a la manera manual que han probado los belgas. Pero hoy Opower forma parte de Oracle, quizá atraída más por todos los datos y conocimiento sobre los hábitos de los clientes que por los beneficios para el sistema eléctrico y el medio ambiente. De cualquier modo, parece que el espíritu original de Opower se mantiene de alguna forma.

Pero lo que parece posible es que pronto todos tengamos la lavadora conectada a nuestra compañía eléctrica a través de internet y que decida cuándo ponerse en marcha para rebajar nuestra factura de la luz. Después de eso, sólo hará falta que los fabricantes de lavadoras hagan que la ropa salga planchada y seremos totalmente felices.

RoboCup: la mayor competición de robots del mundo

RoboCup: la mayor competición de robots del mundo

El principal reclamo de esta cita es el avance en el desarrollo de los robots asistenciales, diseñados con el objetivo de ayudar a las personas en sus rutinas diarias

A finales de julio se celebró en Nagoya (Japón) RoboCup 2017, y tuve por primera vez, la oportunidad de participar en esta competición que reúne a personas relacionadas con la robótica de todo el mundo. Actualmente, RoboCup, que celebra este año su vigésima edición, es la mayor competición anual de robots del mundo. Este año han participado casi 500 equipos de 50 países diferentes y aunque en sus inicios únicamente contaba con liga de fútbol para robots, en la actualidad cubre la mayoría de áreas de la robótica: rescate, logística y robots de servicio en entornos domésticos (Robocup@Home).

Concretamente yo participé en la liga “RoboCup at home” como parte del equipo SPQReL formado por miembros de los grupos L-CAS (Universidad de Lincoln) y LabRoCoCo (Universidad de Roma “Sapienza”). Esta liga se basa en que los robots realicen una serie de tareas domésticas con el fin de ayudar a las personas en sus rutinas diarias. Quizás en un futuro no muy lejano, tengamos un robot de este tipo en nuestros hogares.

Después de 6 días de competición unidos a los 2 meses anteriores de preparación, el equipo acabó muy orgulloso de haber conseguido un tercer puesto en la “RoboCup@Home Social Standard Platform League.

Muy bien pero, ¿qué es realmente esta competición y para qué sirve?

RoboCup nació como un proyecto internacional conjunto para promover la inteligencia artificial, la robótica y otros campos relacionados, a través del planteamiento de problemas comunes. Y buscando una forma de promover la investigación en ciencia e ingeniería estableciendo objetivos desafiantes y organizando este tipo de competiciones para comparar los desarrollos y favorecer la colaboración entre la comunidad investigadora. Centrándonos en RoboCup@Home, esta liga tiene como objetivo desarrollar robots de servicio y asistencia que proporcionen aplicaciones domésticas con gran relevancia en el futuro.

Y ¿cuándo es el futuro?, ¿no existen ya robots capaces de realizar estas tareas?

Este tipo de robots ha tenido una gran presencia en los centros de investigación en los últimos años y está empezando a evaluarse en entornos reales, como el diseñado en CARTIF, Sacarino. Sin embargo, todavía hay pocas aplicaciones en las que los robots formen parte de nuestras actividades cotidianas, y esto es debido en gran parte, a la enorme dificultad de obtener mecanismos de retroalimentación en estos entornos que permitan mejorar el rendimiento del robot. Como posible solución, ha surgido últimamente el benchmarking para evaluar el rendimiento de los sistemas robóticos de una manera reproducible y permitir la comparación entre diferentes enfoques de investigación. Y con ese fin aparece RoboCup@Home, tratando de proporcionar benchmarking a través de competiciones científicas.

RoboCup@Home utiliza un conjunto de pruebas de referencia para evaluar las capacidades y el rendimiento del robot en un entorno doméstico realista, no estandarizado (cambia cada año y no se conoce hasta el día anterior a la competición). La evaluación se centra en los siguientes campos:

  • Navegación: planificar rutas y navegar de forma segura evitando obstáculos (dinámicos).
  • Mapeo: construir una representación del entorno parcialmente conocido.
  • Reconocimiento de persona: detección y reconocimiento de personas.
  • Seguimiento de personas: localizar la posición de una persona y seguirla.
  • Reconocimiento de objetos: detectar y reconocer objetos en el entorno.
  • Manipulación de objetos: agarrar, mover o colocar un objeto.
  • Reconocimiento de voz: reconocer e interpretar comandos de voz del usuario.
  • Reconocimiento de gestos: capacidad de reconocer e interpretar gestos humanos.
  • Cognición: comprender y razonar a partir de la información dada.

¿Cómo se evalúan esas capacidades?

La competición consiste en varias tareas complejas (atender las peticiones de los invitados a una fiesta, actuar como camarero en un restaurante, seguir órdenes verbales dadas por un usuario) que deben realizar los robots de forma totalmente autónoma. Estas tareas son pruebas combinadas, por lo que cada prueba comprende un conjunto de las funcionalidades previas que deben integrarse para poder completarlas, aunque el sistema de puntuación también valora los logros parciales.

En en un futuro post veremos más en detalle las tareas que se realizaron este año durante  la competición y las experiencias de nuestro equipo.