Publications personnelle

96documents trouvés

06907
01/10/2006

Controlability and Makespan Issues with Robot Action Planning and Execution

M.GALLIEN, F.INGRAND

VERIMAG, RIS

Manifestation avec acte : IWPSS 2006 The 5th International Workshop on Planning and Scheduling For Space, Baltimore (USA), 22-25 Octobre 2006 , N° 06907

Diffusable

117730
06547
21/09/2006

Projet AGATA. Rapport de synthèse sur l'activité : études et définitions de modèles

F.PY, F.PERROT, Y.PENCOLE, A.ORLANDINI, L.TRAVE-MASSUYES, F.INGRAND

RIA, DISCO, RIS

Rapport de Contrat : Contrat CNES, Septembre 2006, 47p. , N° 06547

Diffusion restreinte

107641
05616
29/08/2006

Learning behavior models for robot execution control

G.INFANTES, F.INGRAND, M.GHALLAB

RIA

Manifestation avec acte : 17th European Conference on Artificial Intelligence (ECAI'2006), Riva del Garda (Italie), 29 Août - 1er Septembre 2006, pp.678-682 , N° 05616

Diffusable

Plus d'informations

Abstract

Robust execution of robotic tasks is a difficult problem. In many situations, these tasks involve complex behaviors combining different functionalities (e.g. perception, localization, motion planning and motion execution). These behaviors are often programmed with a strong focus on the robustness of the behavior itself, not on the definition of a high level model to be used by a task planner and an execution controller. We propose to learn behaviors models as structured stochastic processes: Dynamic Bayesian Network. Indeed, the DBN formalism allows us to learn and control behaviors with controllable parameters. We experimented our approach on a real robot, where we learned over a large number of runs the model of a complex navigation task using a modified version of Expectation Maximization for DBN. The resulting DBN is then used to control the robot navigation behavior and we show that for some given objectives (e.g. avoid failure, optimize speed), the learned DBN driven controller performs much better (we have one order of magnitude less failure) than the programmed controller. We also show a way to achieve efficient incremental learning of the DBN. We believe that the proposed approach remains generic and can be used to learn complex behaviors other than navigation and for other autonomous systems.

107520
06908
01/08/2006

Learning Behaviors Models for Robot Execution Control

G.INFANTES, F.INGRAND, M.GHALLAB

RIS

Manifestation avec acte : ECAI 2006 The 17th European Conference on Artificial Intelligence, Riva del Garda (Italie), 28 Août-1er septembre 2006 , N° 06908

Diffusable

117732
05616
06/06/2006

Learning behavior models for robot execution control

G.INFANTES, F.INGRAND, M.GHALLAB

RIA

Manifestation avec acte : 16th International Conference on Automated Planning and Scheduling (ICAPS), Anableside (GB), 6-10 Juin 2006, pp.394-397 , N° 05616

Diffusable

Plus d'informations

Abstract

Robust execution of robotic tasks is a difficult problem. In many situations, these tasks involve complex behaviors combining different functionalities (e.g. perception, localization, motion planning and motion execution). These behaviors are often programmed with a strong focus on the robustness of the behavior itself, not on the definition of a high level model to be used by a task planner and an execution controller. We propose to learn behaviors models as structured stochastic processes: Dynamic Bayesian Network. Indeed, the DBN formalism allows us to learn and control behaviors with controllable parameters. We experimented our approach on a real robot, where we learned over a large number of runs the model of a complex navigation task using a modified version of Expectation Maximization for DBN. The resulting DBN is then used to control the robot navigation behavior and we show that for some given objectives (e.g. avoid failure, optimize speed), the learned DBN driven controller performs much better (we have one order of magnitude less failure) than the programmed controller. We also show a way to achieve efficient incremental learning of the DBN. We believe that the proposed approach remains generic and can be used to learn complex behaviors other than navigation and for other autonomous systems.

106960
06912
01/06/2006

Controlability and Makespan Issues with Robot Action Planning and Execution

M.GALLIEN, F.INGRAND

VERIMAG, RIS

Manifestation sans acte : ICAPS 2006 - Worshop on Planning under Uncertainty and Execution Control for Autonomous Systems 2006, The English Lake District (Royaume Uni), 6-10 Juin 2006 , N° 06912

Diffusable

117915
06346
10/05/2006

Apprentissage de modèles de comportements pour le contrôle d'exécution en robotique

G.INFANTES, F.INGRAND, M.GHALLAB

RIA

Manifestations avec acte à diffusion limitée : Journées Francophones Planification, Décision, Apprentissage pour la conduite de système (JFPDA'06), Toulouse (France), 10-12 Mai 2006, 8p. , N° 06346

Diffusable

Plus d'informations

Résumé

Lexécution robuste de tâches robotiques est un problème ouvert. Dans la plupart des cas, ces tâches mettent en oeuvre des comportements complexes combinant différentes fonctionnalités (comme la perception, la localisation, le planification de trajectoires et leur exécution). Ces comportements sont souvent programmés avec la robustesse du comportement en objectif, et non pour la définition dun modèle de haut niveau utilisable par un planificateur de tâches ou un contrôleur dexécution. Nous proposons dapprendre des modèles de comportement en tant que processus stochastiques structurés : des réseaux bayésiens dynamiques (DBN). Précisément, le formalisme DBN nous permet dapprendre et de contrôler les comportements avec des paramètres de contrôle. Nous avons testé notre approche sur un robot réel, où nous avons appris sur un grand nombre de tests un modèle de navigation complexe en utilisant une version modifiée de lalgorithme Expectation Maximization pour les DBNs. Le DBN résultant est ensuite utilisé pour contrôler le comportement de navigation et nous montrons que pour certains objectifs (comme éviter les cas déchecs et optimiser la vitesse) le contrôleur basé sur le DBN appris se comporte bien mieux (un ordre de grandeur de moins déchecs) que le contrôleur programmé. Nous montrons aussi une façon dobtenir un apprentissage incrémental du DBN. Nous pensons que lapproche proposée reste générique et peut être utilisée pour dautres systèmes autonomes et pour apprendre des comportements complexes autres que la navigation .

106807
06911
01/05/2006

Planification et exécution de plan pour la robotique autonome

M.GALLIEN, F.INGRAND

VERIMAG, RIS

Manifestation sans acte : JFDPA 2006 - Journées Francophones Planification, Décision, Apprentissage (pour la conduite de systèmes), Toulouse (France), 10-12 Mai 2006 , N° 06911

Diffusable

117913
06207
01/04/2006

Architecture LAAS et satellites autonomes

F.PY, F.INGRAND

RIA

Rapport de Contrat : Contrat CNES N° 05.CNES.2485, CNRS N° 060130, Avril 2006, 28p. , N° 06207

Diffusable

106441
05318
25/01/2006

Apprentissage de modèle d'activité stochastique pour la planification et le contrôle d'exécution

G.INFANTES, F.INGRAND, M.GHALLAB

RIA

Manifestation avec acte : 15ème Congrès Francophone "Reconnaissance des Formes et Intelligence Artificielle" (RFIA'2006), Tours (France), 25-27 Janvier 2006, 10p. , N° 05318

Diffusable

Plus d'informations

Résumé

La planification dactions et de tâches pour un robot est à la base dun comportement autonome délibéré. Elle met en oeuvre une activité calculatoire, parmi beaucoup dautres, motivée et justifiée par la réalisation dobjectifs particuliers. Elle implique un raisonnement sur les actions possibles du robot à partir de modèles de lenvironnement et des capacités sensori-motrices du robot. Les modèles daction utilisés pour la planification de tâche sont en général déterministes et créés à la main par un spécialiste du domaine. La qualité de ces modèles savère être un élément critique pour lexécution effective des plans calculés ; avoir un bon modèle peut à la fois permettre de produire des plans plus réalistes, mais aussi de contrôler finement leur exécution. Nous proposons dapprendre ces modèles daction par des expérimentations sous forme de processus stochastiques, très riches en informations permettant de gérer les incertitudes inhérentes aux applications réelles. Dans un premier temps, nous proposons de modéliser laction sous forme de modèle de Markov caché, et dans un deuxième temps sous forme de réseau bayésien dynamique, plus riche en informations causales fines. Nous obtenons ainsi à la fois des modèles dactions réalistes, et nous pouvons contrôler et adapter précisément nos actions au contexte, à un niveau plus précis que celui géré par la planification.

106358
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de fonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/