banners
beforecontenttitle

Proyecto ELSE

After content title
Before content body
Chunks
Chunks

Proyecto PID2022-137344OB-C32 financiado por:

Logo ELSE

 

Aunque se ha avanzado enormemente en las últimas décadas, los robots actuales que operan en entornos realmente abiertos no consiguen comprender plenamente este entorno, las misiones que llevan a cabo, ni los intrincados cambios de plan o imprevistos que afectan a su rendimiento. La actividad puramente reactiva no es claramente suficiente para alcanzar este conocimiento, ni siquiera cuando emana de algoritmos implementados con las tecnologías más recientes de aprendizaje profundo. Los robots necesitan comprender, y no solo percibir o planificar, para emprender acciones que lo empoderen como un agente realmente autónomo. El problema asociado a los bajos niveles de conciencia real de los robots se cita actualmente como una barrera clave en el mercado, que limita la aplicación de la robótica en varios dominios que le podrían estar abiertos. La realidad es que los robots no tienen el nivel de comprensión de lo que ocurre en torno suyo que sí tienen los ingenieros que las diseñaron o las personas que las rodean. Esta falta de conocimiento no la resolverá el aprendizaje profundo, pues obvia la capacidad de poder explicar el porqué detrás de una acción o una percepción. Lo que se necesita es una arquitectura capaz de crear, usando un modelo causal, explicaciones sobre la propia experiencia del robot o anomalías perceptivas, así como de integrar estas explicaciones en su cuerpo de conocimiento para utilizarlas posteriormente para mejorar su comportamiento.  

Enmarcado en el proyecto coordinado INSIGHT, el subproyecto ELSE persigue extender la arquitectura cognitiva para robótica CORTEX con los mecanismos que permitan al robot explicar porqué ha llevado a cabo una determinada acción o qué suceso puede estar detrás de un determinado evento. Esta explicación estará modulada por el rol, que la propia conversación con la persona, otorga a ésta. El objetivo es que esta explicación surja de la propia verbalización, que el robot gestiona como si fuera un dialogo interno, de la evolución del conocimiento adquirido durante una misión, complementado con el que el robot posea a priori (a nivel semántico o episódico por ejemplo). Para validar como estos mecanismos alteran la percepción que, del robot, puedan tener las personas que rodean al robot, se deberán diseñar y evaluar distintos casos de uso. 

After content body