Laboratoire d’Analyse et d’Architecture des Systèmes
G.INFANTES, F.INGRAND, M.GHALLAB
RIS
Rapport LAAS N°07021, Janvier 2007, 8p.
Diffusable
109126G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestation avec acte : 17th European Conference on Artificial Intelligence (ECAI'2006), Riva del Garda (Italie), 29 Août - 1er Septembre 2006, pp.678-682 , N° 05616
Diffusable
Plus d'informations
Robust execution of robotic tasks is a difficult problem. In many situations, these tasks involve complex behaviors combining different functionalities (e.g. perception, localization, motion planning and motion execution). These behaviors are often programmed with a strong focus on the robustness of the behavior itself, not on the definition of a high level model to be used by a task planner and an execution controller. We propose to learn behaviors models as structured stochastic processes: Dynamic Bayesian Network. Indeed, the DBN formalism allows us to learn and control behaviors with controllable parameters. We experimented our approach on a real robot, where we learned over a large number of runs the model of a complex navigation task using a modified version of Expectation Maximization for DBN. The resulting DBN is then used to control the robot navigation behavior and we show that for some given objectives (e.g. avoid failure, optimize speed), the learned DBN driven controller performs much better (we have one order of magnitude less failure) than the programmed controller. We also show a way to achieve efficient incremental learning of the DBN. We believe that the proposed approach remains generic and can be used to learn complex behaviors other than navigation and for other autonomous systems.
G.INFANTES, F.INGRAND, M.GHALLAB
RIS
Manifestation avec acte : ECAI 2006 The 17th European Conference on Artificial Intelligence, Riva del Garda (Italie), 28 Août-1er septembre 2006 , N° 06908
Diffusable
117732G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestation avec acte : 16th International Conference on Automated Planning and Scheduling (ICAPS), Anableside (GB), 6-10 Juin 2006, pp.394-397 , N° 05616
Diffusable
Plus d'informations
Robust execution of robotic tasks is a difficult problem. In many situations, these tasks involve complex behaviors combining different functionalities (e.g. perception, localization, motion planning and motion execution). These behaviors are often programmed with a strong focus on the robustness of the behavior itself, not on the definition of a high level model to be used by a task planner and an execution controller. We propose to learn behaviors models as structured stochastic processes: Dynamic Bayesian Network. Indeed, the DBN formalism allows us to learn and control behaviors with controllable parameters. We experimented our approach on a real robot, where we learned over a large number of runs the model of a complex navigation task using a modified version of Expectation Maximization for DBN. The resulting DBN is then used to control the robot navigation behavior and we show that for some given objectives (e.g. avoid failure, optimize speed), the learned DBN driven controller performs much better (we have one order of magnitude less failure) than the programmed controller. We also show a way to achieve efficient incremental learning of the DBN. We believe that the proposed approach remains generic and can be used to learn complex behaviors other than navigation and for other autonomous systems.
G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestations avec acte à diffusion limitée : Journées Francophones Planification, Décision, Apprentissage pour la conduite de système (JFPDA'06), Toulouse (France), 10-12 Mai 2006, 8p. , N° 06346
Diffusable
Plus d'informations
Lexécution robuste de tâches robotiques est un problème ouvert. Dans la plupart des cas, ces tâches mettent en oeuvre des comportements complexes combinant différentes fonctionnalités (comme la perception, la localisation, le planification de trajectoires et leur exécution). Ces comportements sont souvent programmés avec la robustesse du comportement en objectif, et non pour la définition dun modèle de haut niveau utilisable par un planificateur de tâches ou un contrôleur dexécution. Nous proposons dapprendre des modèles de comportement en tant que processus stochastiques structurés : des réseaux bayésiens dynamiques (DBN). Précisément, le formalisme DBN nous permet dapprendre et de contrôler les comportements avec des paramètres de contrôle. Nous avons testé notre approche sur un robot réel, où nous avons appris sur un grand nombre de tests un modèle de navigation complexe en utilisant une version modifiée de lalgorithme Expectation Maximization pour les DBNs. Le DBN résultant est ensuite utilisé pour contrôler le comportement de navigation et nous montrons que pour certains objectifs (comme éviter les cas déchecs et optimiser la vitesse) le contrôleur basé sur le DBN appris se comporte bien mieux (un ordre de grandeur de moins déchecs) que le contrôleur programmé. Nous montrons aussi une façon dobtenir un apprentissage incrémental du DBN. Nous pensons que lapproche proposée reste générique et peut être utilisée pour dautres systèmes autonomes et pour apprendre des comportements complexes autres que la navigation .
M.FOX, M.GHALLAB, G.INFANTES, D.LONG
RIA, Strathclyde
Revue Scientifique : Artificial Intelligence, Vol.170, N°2, pp.59-113, Février 2006 , N° 04679
Diffusable
Plus d'informations
In this paper we describe a machine learning approach for acquiring a model of a robot behaviour from raw sensor data. We are interested in automating the acquisition of behavioural models to provide a robot with an introspective capability. We assume that the behaviour of a robot in achieving a task can be modelled as a finite stochastic state transition system. Beginning with data recorded by a robot in the execution of a task, we use unsupervised learning techniques to estimate a hidden Markov model (HMM) that can be used both for predicting and explaining the behaviour of the robot in subsequent executions of the task. We demonstrate that it is feasible to automate the entire process of learning a high quality HMM from the data recorded by the robot during execution of its task. The learned HMM can be used both for monitoring and controlling the behaviour of the robot. The ultimate purpose of our work is to learn models for the full set of tasks associated with a given problem domain, and to integrate these models with a generative task planner. We want to show that these models can be used successfully in controlling the execution of a plan. However, this paper does not develop the planning and control aspects of our work, focussing instead on the learning methodology and the evaluation of a learned model. The essential property of the models we seek to construct is that the most probable trajectory through a model, given the observations made by the robot, accurately diagnoses, or explains, the behaviour that the robot actually performed when making these observations. In the work reported here we consider a navigation task. We explain the learning process, the experimental setup and the structure of the resulting learned behavioural models. We then evaluate the extent to which explanations proposed by the learned models accord with a human observers interpretation of the behaviour exhibited by the robot in its execution of the task.
G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestation avec acte : 15ème Congrès Francophone "Reconnaissance des Formes et Intelligence Artificielle" (RFIA'2006), Tours (France), 25-27 Janvier 2006, 10p. , N° 05318
Diffusable
Plus d'informations
La planification dactions et de tâches pour un robot est à la base dun comportement autonome délibéré. Elle met en oeuvre une activité calculatoire, parmi beaucoup dautres, motivée et justifiée par la réalisation dobjectifs particuliers. Elle implique un raisonnement sur les actions possibles du robot à partir de modèles de lenvironnement et des capacités sensori-motrices du robot. Les modèles daction utilisés pour la planification de tâche sont en général déterministes et créés à la main par un spécialiste du domaine. La qualité de ces modèles savère être un élément critique pour lexécution effective des plans calculés ; avoir un bon modèle peut à la fois permettre de produire des plans plus réalistes, mais aussi de contrôler finement leur exécution. Nous proposons dapprendre ces modèles daction par des expérimentations sous forme de processus stochastiques, très riches en informations permettant de gérer les incertitudes inhérentes aux applications réelles. Dans un premier temps, nous proposons de modéliser laction sous forme de modèle de Markov caché, et dans un deuxième temps sous forme de réseau bayésien dynamique, plus riche en informations causales fines. Nous obtenons ainsi à la fois des modèles dactions réalistes, et nous pouvons contrôler et adapter précisément nos actions au contexte, à un niveau plus précis que celui géré par la planification.
M.GHALLAB
RIA
Manifestation avec acte : 27th Annual German Conference on Artificial Intelligence (KI'2004), Ulm (Allemagne), 20-24 Septembre 2004 , N° 04437
Diffusable
102594M.GHALLAB
RIA
Manifestation avec acte : INFORMATIK 2004, Ulm (Allemagne), 20-24 Septembre 2004 , N° 04437
Diffusable
102595D.NAU, M.GHALLAB
Maryland, RIA
Manifestation avec acte : 2004 Performance Metrics for Intelligent Systems Workshop (PerMIS'04), Gaithersburg (USA), 24-25 Août 2004, 8p. , N° 04218
Diffusable
102750