Laboratoire d’Analyse et d’Architecture des Systèmes
M.GALLIEN, F.INGRAND
VERIMAG, RIS
Manifestation avec acte : IWPSS 2006 The 5th International Workshop on Planning and Scheduling For Space, Baltimore (USA), 22-25 Octobre 2006 , N° 06907
Diffusable
117730F.PY, F.PERROT, Y.PENCOLE, A.ORLANDINI, L.TRAVE-MASSUYES, F.INGRAND
RIA, DISCO, RIS
Rapport de Contrat : Contrat CNES, Septembre 2006, 47p. , N° 06547
Diffusion restreinte
107641G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestation avec acte : 17th European Conference on Artificial Intelligence (ECAI'2006), Riva del Garda (Italie), 29 Août - 1er Septembre 2006, pp.678-682 , N° 05616
Diffusable
Plus d'informations
Robust execution of robotic tasks is a difficult problem. In many situations, these tasks involve complex behaviors combining different functionalities (e.g. perception, localization, motion planning and motion execution). These behaviors are often programmed with a strong focus on the robustness of the behavior itself, not on the definition of a high level model to be used by a task planner and an execution controller. We propose to learn behaviors models as structured stochastic processes: Dynamic Bayesian Network. Indeed, the DBN formalism allows us to learn and control behaviors with controllable parameters. We experimented our approach on a real robot, where we learned over a large number of runs the model of a complex navigation task using a modified version of Expectation Maximization for DBN. The resulting DBN is then used to control the robot navigation behavior and we show that for some given objectives (e.g. avoid failure, optimize speed), the learned DBN driven controller performs much better (we have one order of magnitude less failure) than the programmed controller. We also show a way to achieve efficient incremental learning of the DBN. We believe that the proposed approach remains generic and can be used to learn complex behaviors other than navigation and for other autonomous systems.
G.INFANTES, F.INGRAND, M.GHALLAB
RIS
Manifestation avec acte : ECAI 2006 The 17th European Conference on Artificial Intelligence, Riva del Garda (Italie), 28 Août-1er septembre 2006 , N° 06908
Diffusable
117732G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestation avec acte : 16th International Conference on Automated Planning and Scheduling (ICAPS), Anableside (GB), 6-10 Juin 2006, pp.394-397 , N° 05616
Diffusable
Plus d'informations
Robust execution of robotic tasks is a difficult problem. In many situations, these tasks involve complex behaviors combining different functionalities (e.g. perception, localization, motion planning and motion execution). These behaviors are often programmed with a strong focus on the robustness of the behavior itself, not on the definition of a high level model to be used by a task planner and an execution controller. We propose to learn behaviors models as structured stochastic processes: Dynamic Bayesian Network. Indeed, the DBN formalism allows us to learn and control behaviors with controllable parameters. We experimented our approach on a real robot, where we learned over a large number of runs the model of a complex navigation task using a modified version of Expectation Maximization for DBN. The resulting DBN is then used to control the robot navigation behavior and we show that for some given objectives (e.g. avoid failure, optimize speed), the learned DBN driven controller performs much better (we have one order of magnitude less failure) than the programmed controller. We also show a way to achieve efficient incremental learning of the DBN. We believe that the proposed approach remains generic and can be used to learn complex behaviors other than navigation and for other autonomous systems.
M.GALLIEN, F.INGRAND
VERIMAG, RIS
Manifestation sans acte : ICAPS 2006 - Worshop on Planning under Uncertainty and Execution Control for Autonomous Systems 2006, The English Lake District (Royaume Uni), 6-10 Juin 2006 , N° 06912
Diffusable
117915G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestations avec acte à diffusion limitée : Journées Francophones Planification, Décision, Apprentissage pour la conduite de système (JFPDA'06), Toulouse (France), 10-12 Mai 2006, 8p. , N° 06346
Diffusable
Plus d'informations
Lexécution robuste de tâches robotiques est un problème ouvert. Dans la plupart des cas, ces tâches mettent en oeuvre des comportements complexes combinant différentes fonctionnalités (comme la perception, la localisation, le planification de trajectoires et leur exécution). Ces comportements sont souvent programmés avec la robustesse du comportement en objectif, et non pour la définition dun modèle de haut niveau utilisable par un planificateur de tâches ou un contrôleur dexécution. Nous proposons dapprendre des modèles de comportement en tant que processus stochastiques structurés : des réseaux bayésiens dynamiques (DBN). Précisément, le formalisme DBN nous permet dapprendre et de contrôler les comportements avec des paramètres de contrôle. Nous avons testé notre approche sur un robot réel, où nous avons appris sur un grand nombre de tests un modèle de navigation complexe en utilisant une version modifiée de lalgorithme Expectation Maximization pour les DBNs. Le DBN résultant est ensuite utilisé pour contrôler le comportement de navigation et nous montrons que pour certains objectifs (comme éviter les cas déchecs et optimiser la vitesse) le contrôleur basé sur le DBN appris se comporte bien mieux (un ordre de grandeur de moins déchecs) que le contrôleur programmé. Nous montrons aussi une façon dobtenir un apprentissage incrémental du DBN. Nous pensons que lapproche proposée reste générique et peut être utilisée pour dautres systèmes autonomes et pour apprendre des comportements complexes autres que la navigation .
M.GALLIEN, F.INGRAND
VERIMAG, RIS
Manifestation sans acte : JFDPA 2006 - Journées Francophones Planification, Décision, Apprentissage (pour la conduite de systèmes), Toulouse (France), 10-12 Mai 2006 , N° 06911
Diffusable
117913F.PY, F.INGRAND
RIA
Rapport de Contrat : Contrat CNES N° 05.CNES.2485, CNRS N° 060130, Avril 2006, 28p. , N° 06207
Diffusable
106441G.INFANTES, F.INGRAND, M.GHALLAB
RIA
Manifestation avec acte : 15ème Congrès Francophone "Reconnaissance des Formes et Intelligence Artificielle" (RFIA'2006), Tours (France), 25-27 Janvier 2006, 10p. , N° 05318
Diffusable
Plus d'informations
La planification dactions et de tâches pour un robot est à la base dun comportement autonome délibéré. Elle met en oeuvre une activité calculatoire, parmi beaucoup dautres, motivée et justifiée par la réalisation dobjectifs particuliers. Elle implique un raisonnement sur les actions possibles du robot à partir de modèles de lenvironnement et des capacités sensori-motrices du robot. Les modèles daction utilisés pour la planification de tâche sont en général déterministes et créés à la main par un spécialiste du domaine. La qualité de ces modèles savère être un élément critique pour lexécution effective des plans calculés ; avoir un bon modèle peut à la fois permettre de produire des plans plus réalistes, mais aussi de contrôler finement leur exécution. Nous proposons dapprendre ces modèles daction par des expérimentations sous forme de processus stochastiques, très riches en informations permettant de gérer les incertitudes inhérentes aux applications réelles. Dans un premier temps, nous proposons de modéliser laction sous forme de modèle de Markov caché, et dans un deuxième temps sous forme de réseau bayésien dynamique, plus riche en informations causales fines. Nous obtenons ainsi à la fois des modèles dactions réalistes, et nous pouvons contrôler et adapter précisément nos actions au contexte, à un niveau plus précis que celui géré par la planification.