Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

53documents trouvés

18594
17/12/2018

Vérification Formelle des Modules Fonctionnels de Systèmes Robotiques et Autonomes

M.FOUGHALI

RIS

Doctorat : INSA de Toulouse, 17 Décembre 2018, 195p., Président: J.MALENFANT, Rapporteurs: C.PECHEUR, H.BRUYNINCKX, Examinateurs: J.CARDOSO, S.DAL ZILIO, J.COMBAZ, Directeurs de thèse: M.GHALLAB, F.F.INGRAND , N° 18594

Diffusable

Plus d'informations

Résumé

Les systèmes robotiques et autonomes ne cessent d’évoluer et deviennent de plus en plus impliqués dans les missions à coût considérable (e.g. exploration de l’espace) et/ou dans les milieux humains (e.g. chirurgie, assistance handicap). Cette implication remet en question les pratiques adoptées par les développeurs et ingénieurs pour donner un certain degré de confiance à ces systèmes. En effet, les simulations et campagnes de tests ne sont plus adaptées à la problématique de sûreté et fiabilité des systèmes robotiques et autonomes compte tenu (i) du caractère sérieux des défaillances éventuelles dans les contextes susmentionnés (un dommage à un robot très coûteux ou plus dramatiquement une atteinte aux vies humaines) et (ii) de la nature non exhaustive de ces techniques (les tests et simulations peuvent toujours passer à côté d’un scénario d’exécution catastrophique. Les méthodes formelles, bien qu’elles offrent une solution mathématique élégante aux problèmes de sûreté de fonctionnement et de fiabilité, peinent à s’imposer, de leur côté, dans le domaine de la robotique autonome. Cette limitation devient encore plus visible au niveau fonctionnel des robots, i.e. les composants logiciels interagissant directement avec les capteurs et les actionneurs. Elle est due à plusieurs facteurs. D’abord, les composants fonctionnels reflètent un degré de complexité conséquent, ce qui mène souvent à une explosion combinatoire de l’espace d’états atteignables (comme l’exploration se veut exhaustive). Ce problème force les spécialistes soit à se limiter à des applications très simples, soit à recourir à des abstractions qui s’avèrent fréquemment exagérées, ce qui nuit à la véracité des résultats de la vérification (e.g. l’oubli des contraintes temporelles, la non inclusion des spécificités du hardware). En outre, les composants fonctionnels sont décrits à travers des languages et frameworks informels (ROS, GenoM, etc.). Leurs spécifications doivent alors être traduites en des modèles formels avant de pouvoir y appliquer les méthodes formelles associées. Cette opération, nommée formalisation, est souvent pénible, lente, et exposée à des erreurs vu la complexité des comportements que représentent les composants fonctionnels des robots. La formalisation fait face également à un autre problème également pesant, à savoir le manque de portabilité. Cela se résume au fait que chaque traduction doit être refaite dès qu’un composant change ou évolue, sans parler des nouvelles applications faites de nouveaux composants, ce qui implique un investissement dans le temps aux limites de la rentabilité. A noter que cette thèse ne s’intéresse pas aux composants du haut niveau dits “décisionnels” des systèmes robotiques et autonomes. En effet, ces composants sont souvent basés sur des modèles bien définis, même formels, ce qui facilite leur connexion aux méthodes formelles. Le lecteur intéressé peut trouver dans lalittéature de nombreuses contributions y étant pertinentes. Aux limitations décrites précédemment, s’ajoute le problème de l’indécidabilité visà- vis les formalismes et les techniques de vérification. Par example, les travaux comparant les Réseaux de Petri Temporels “à la , Merlin” et les Automates Temporisés, deux formalismes phares de modélisation des systèmes concurrents, demeurent trop formels pour les communautés autres que celle des méthodes formelles. Il existe néanmoins des travaux qui présentent des techniques qui permettent de bénéficier des deux formalismes, bien qu’elles ne soient (i) appliquées qu’à des exemples académiques classiques, loin de la complexité des composants fonctionnels robotiques et autonomes et (ii) restreintes aux classes des réseaux non-interprétés (pas de possibilité d’avoir des données/variables partagées). Nous proposons, dans ce travail de recherche, de connecter GenoM3, un framework de développement et déploiement de composants fonctionnels robotiques, à des langages formels et leurs outils de vérification respectifs. Cette connexion se veut automatique pour pallier aux problème de non portabilité, décrit au paragraphe précédent. GenoM3 offre un mécanisme de synthèse automatique pour assurer l’indépendance des composants du middleware. Nous exploitons ce mécanisme pour développer des templates en mesure de traduire n’importe quelle spécification de GenoM3 en langages formels. Ceci passe par une formalisation de GenoM3: une sémantique formelle opérationnelle est donnée au langage. Une traduction à partir de cette sémantique est réalisée vers des langages formels et prouvée correcte par bisimulation. Nous comparons de différents langages cibles, formalismes et techniques et tirerons les conclusions de cette comparaison. La modélisation se veut aussi, et surtout, efficace. Un modèle correct n’est pas forcément utile. En effet, le passage à l’échelle est particulièrement important. Cette thèse porte donc sur l'applicabilité des méthodes formelles aux composants fonctionnels des systèmes robotiques et autonomes. Le but est d'aller vers des robots autonomes plus sûrs avec un comportement plus connu et prévisible. Cela passe par la mise en place d'un mécanisme de génération automatique de modèles formels à partir de modules fonctionnels de systèmes robotiques et autonomes. Ces modèles sont exploités pour vérifier des propriétés qualitatives ou temps-réel, souvent critiques pour les systèmes robotiques et autonomes considérés. Parmi ces propriétés, on peut citer, à titre d'exemple, l'ordonnançabilité des tâches périodiques, la réactivité des tâches sporadiques, l'absence d’interblocages, la vivacité conditionnée (un évènement toujours finit par suivre un autre), la vivacité conditionnée bornée (un évènement toujours suit un autre dans un intervalle de temps borné), l'accessibilité (des états “indésirables” ne sont jamais atteints), etc. Parmi les défis majeurs freinant l'atteinte de tels objectifs, on cite notamment: - Contrairement aux spécifications décisionnelles, les modules fonctionnels sont décrits dans de langages informels. La formalisation est dure, inévidente, et sujette à des erreurs compte tenu des comportements atypiques qui peuvent se présenter à ce niveau. Cette formalisation est aussi non réutilisable (besoin de re-formaliser pour chaque nouvelle application). Il existe une multitude de techniques de vérification et de formalismes mathématiques pour la modélisation. Le choix n'est pas évident, chaque formalisme et chaque technique présentant des avantages et des inconvénients. La complexité des modules fonctionnels (nombre de composants, mécanismes de communication et d'exécution, contraintes temporelles, etc.) mène à des problèmes sérieux de passage à l'échelle (explosion de l'espace d'états atteignables). - Il existe une déconnexion importante entre les deux communautés (de robotique et de vérification formelle). D'une part, les roboticiens n'ont ni la connaissance ni les moyens (en terme de temps surtout mais aussi de background) de s'investir dans les méthodes formelles, qui sortent de leur domaine. D'autre part, les spécialistes des méthodes formelles restent loin de s'attaquer à des problématiques si complexes faute de connaissances en robotique. Cette thèse tacle la totalité de ces problèmes en proposant une approche de traduction prouvée mathématiquement et automatisée de GenoM vers: - Fiacre/TINA (model checking) - UPPAAL (model checking) - UPPAAL-SMC (statistical model checking) - BIP/RTD-Finder (SAT solving) - BIP/Engine (enforcement de propriétés en ligne) La thèse propose également une analyse du feedback expérimental afin de guider les ingénieurs à exploiter ces méthodes et techniques de vérification efficacement sur les modèles automatiquement générés.

Abstract

The goal of this thesis is to add to the efforts toward the long-sought objective of secure and safe robots with predictable and a priori known behavior. For the reasons given above, formal methods are used to model and verify crucial properties, with a focus on the functional level of robotic systems. The approach relies on automatic generation of formal models targeting several frameworks. For this, we give operational semantics to a robotic framework, then several mathematically proven translations are derived from such semantics. These translations are then automatized so any robotic functional layer specification can be translated automatically and promptly to various frameworks/languages. Thus, we provide a mathematically correct mapping from functional components to verifiable models. The obtained models are used to formulate and verify crucial properties on real-world complex robotic and autonomous systems. This thesis provides also a valuable feedback on the applicability of formal frameworks on real-world, complex systems and experiencebased guidelines on the efficient use of formal-model automatic generators. In this context, efficiency relates to, for instance, how to use the different model checking tools optimally depending on the properties to verify, what to do when the models do not scale with model checking (e.g. the advantages and drawbacks of statistical model checking and runtime verification and when to use the former or the latter depending on the type of properties and the order of magnitude of timing constraints).

Mots-Clés / Keywords
Robotics; Computer science; Software engineering; Formal methods; Verification; Real-time; Robotique; Informatique; Méthode formelle; Vérification; Temps réel;

146855
18492
13/07/2018

Theory and Applications for Control and Motion Planning of Aerial Robots in Physical Interaction with particular focus on Tethered Aerial Vehicles

M.TOGNON

RIS

Doctorat : Université de Toulouse III - Paul Sabatier, 13 Juillet 2018, 269p., Président: , Rapporteurs: P.MORIN, A.DE LUCA, Examinateurs: A.OLLERO, C.CUMER, Directeurs de thèse: A.FRANCHI, J.CORTES, Membre invité: S.LACROIX , N° 18492

Lien : https://hal.laas.fr/tel-02003048

Diffusable

Plus d'informations

Résumé

Le sujet principal de cette thèse est l’étude des robots aériens autonomes interagissant avec l’environnement. Plus précisement, ce travail porte sur la conception de nouvelles méthodes de commande et de planification de mouvement pour ces robots. De nos jours, les véhicules aériens autonomes sont de plus en plus utilisés dans de nombreux domaines d’application, mais le plus souvent comme des senseurs mobiles autonomes, cantonnés à l’acquisition de données sur l’environnement. Le défi majeur dans le domaine de l’interaction physique aérienne, est donc aujourd’hui d’aller au-delà de cette application limitée et d’exploiter entièrement les capacités des robots aériens pour qu’ils puissent réellement interagir avec l’environnement (par exemple avec un échange de forces pour pousser, tirer et manipuler des objets). Néanmoins, vue la nature différente des problèmes liés à l’interaction physique aérienne, de nouvelles méthodes de commande sont nécessaires. Elles doivent assurer la stabilité du système pendant l’interaction, mais aussi être robustes visa- vis de perturbations externes, permettant finalement au robot d’assurer la tâche qui lui est assignée. De ce fait, ingénieurs et chercheurs doivent faire face à de nouveaux défis en raison de la grande complexité des manipulateurs aériens, comme par exemple le grand nombre de degrés de liberté, les fortes non-linéarités et les limitations des actionneurs. En outre, les trajectoires des robots aériens doivent être soigneusement calculées en utilisant des techniques de planification des mouvements, afin d’exécuter la tâche souhaitée de façon sûre, en évitant les obstacles et en tenant compte de la dynamique du système et ses limites d’actionnement. Pour atteindre les objectifs précédemment mentionnés, cette thèse considère l’analyse d’une classe spécifique de systèmes aériens interagissant avec l’environnement : les véhicules aériens attachés avec des câbles ou des barres. L’étude de ces systèmes particuliers, qui englobent tous les défis du problème général, aide à acquérir les connaissances et l’expertise pour le développement de méthodes plus générales qui pourront être appliquées à l’interaction physique aérienne. Ce travail se concentre sur l’analyse formelle et minutieuse des véhicules aériens attachés, de la commande et de l’estimation d’état à la planification du mouvement. Nous avons notamment étudié les propriétés de platitude différentielle, trouvant deux sorties plates possibles qui révèlent de nouvelles capacités de tel systèmes. La première sortie plate contient la position du véhicule et la force interne du lien, tandis que la deuxième contient la position et une variable liée à l’attitude du véhicule. Ceci montre de nouvelles capacités de commande et d’interaction physiques, différentes de celles des robots aériens en vol libre. Sur la base de ces résultats, nous avons conçu deux types de contrôleurs. Le premier est un contrôleur basé sur une approche hiérarchique facile à implémenter. Il est performant dans des conditions quasi-statiques, mais présente une augmentation de l’erreur de suivi lorsqu’il suit une trajectoire dynamique. Pour faire face au problème de suivi nous avons donc conçu un deuxième contrôleur plus adapté, basé sur la technique de linéarisation dynamique du feedback. Deux observateurs, respectivement pour les environnements 3D et 2D, ont été conçus afin de fermer la boucle de commande avec une configuration sensorielle minimale. Nous avons montré que le lien physique permet d’obtenir une estimation de l’état du système en utilisant seulement un IMU(centrale inertielle) et trois encodeurs pour le cas 3D, tandis que, pour le cas 2D, il suffit d’un IMU. Une partie de ces résultats ont été étendus à un système multi-robot composé par deux robots aériens liés au sol et entre eux. Les résultats théoriques sur les véhicules aériens attachés par des câbles ou des barres ont été ensuite employés pour résoudre le problème pratique de l’atterrissage et du décollage sur/de une surface inclinée, en améliorant la robustesse et la fiabilité de ces manoeuvres par rapport aux conditions en vol libre. En plus, motivé par l’intérêt pour l’interaction physique aérienne de A à Z, nous avons abordé des problèmes supplémentaires : i) Conception de nouveaux véhicules aériens avec poussée omnidirectionelle qui se révèlent plus adaptés à l’interaction physique : nous avons proposé un algorithme pour obtenir un design optimal présentant des propriétés équivalentes de poussée omnidirectionnelle en utilisant seulement des propulseurs unidirectionnels fixes. Nous avons aussi conçu un contrôleur pour ces véhicules qui intègre l’unidirectionnalité des propulseurs ; ii) la manipulation d’une charge suspendue par des câbles : nous avons proposé une stratégie de contrôle sans aucune communication explicite entre les robots, qui garantit la stabilité et la passivité du système ; iii) La commande de manipulateurs aériens à poussée unidirectionnelle : nous avons proposé un contrôleur décentralisé basé sur la platitude différentielle pour un manipulateur aérien à poussée unidirectionnelle et protocentric équipé d’un certain nombre de bras articulés ; iv) Planification du mouvement pour des manipulateurs aériens : nous avons proposé un planificateur ‘control-aware’ du mouvement basé sur le paradigme d’unification de la commande et de la planification, pour des manipulateurs aériens interagissant avec l’environnement ; v) tâches de ’push-and-slide’ avec des manipulateurs aériens : pour un manipulateur aérien redondant basé sur un véhicule aérien à poussée multidirectionelle, nous avons développé un contrôleur qui, en combinaison avec le planificateur de mouvement cité précédemment, permet d’effectuer des opérations ‘pushand- slide’. Comme résultat de la conception mécanique optimale du contrôleur et du planificateur de mouvement, le système aérien a été intégré avec un capteur afin de réaliser une inspection réelle d’un tuyau métallique.

Abstract

This thesis focuses on the study of autonomous aerial robots interacting with the surrounding environment, and in particular on the design of new control and motion planning methods for such systems. Nowadays, autonomous aerial vehicles are extensively employed in many fields of application but mostly as autonomously moving sensors used only to sense the environment. On the other hand, in the recent field of aerial physical interaction, the goal is to go beyond sensing-only applications and to fully exploit aerial robots capabilities in order to interact with the environment, exchanging forces for pushing/pulling/sliding, and manipulating objects. However, due to the different nature of the problems, new control methods are needed. These methods have to preserve the system stability during the interaction and to be robust against external disturbances, finally enabling the robot to perform a given task. Moreover, researchers and engineers need to face other challenges generated by the high complexity of aerial manipulators, e.g., a large number of degrees of freedom, strong nonlinearities, and actuation limits. Furthermore, trajectories of the aerial robots have to be carefully computed using motion planning techniques. To perform the sough task in a safe way, the planned trajectory must avoid obstacles and has to be suitable for the dynamics of the system and its actuation limits. With the aim of achieving the previously mentioned general goals, this thesis considers the analysis of a particular class of aerial robots interacting with the environment: tethered aerial vehicles. The study of particular systems, still encapsulating all the challenges of the general problem, helps on acquiring the knowledge and the expertise for a subsequent development of more general methods applicable to aerial physical interaction. This work focuses on the thorough formal analysis of tethered aerial vehicles ranging from control and state estimation to motion planning. In particular, the differential flatness property of the system is investigated, finding two possible sets of flat outputs that reveal new capabilities of such a system. One contains the position of the vehicle and the link internal force (equivalently the interaction force with the environment), while the second contains the position and a variable linked to the attitude of the vehicle. This shows new control and physical interaction capabilities different from standard aerial robots in free-flight. In particular, the first set of flat outputs allows realizing one of the first “free-floating” versions of the classical hybrid force-motion control for standard grounded manipulators. Based on those results we designed two types of controllers. The first is an easyto- implement controller based on a hierarchical approach. Although it shows good performance in quasi-static conditions, actually the tracking error increases when tracking a dynamic trajectory. Thus, a second controller more suited for tracking problems has been designed based on the dynamic feedback linearization technique. Two observers, for the 3D and 2D environments, respectively, have been designed ii in order to close the control loop using a minimal sensorial setup. We showed that the tether makes possible to retrieve an estimation of the full state from only an IMU plus three encoders for the 3D case, while from just an IMU for the 2D case. Parts of those results were extended to a novel and original multi-robots case as well. We considered a multi-tethered system composed of two aerial robots linked to the ground and to each other by two links. The theoretical results on generic tethered aerial vehicles were finally employed to solve the practical and challenging problem of landing and takeoff on/from a sloped surface, enhancing the robustness and reliability of the maneuvers with respect to the free-flight solution. In addition, moved by the interest on aerial physical interaction from A to Z, supplementary problems related to the topic have been addressed as: i) Design of new omnidirectional-thrust aerial vehicles more suited for physical interaction: we proposed an algorithm to obtain an optimal design that is omnidirectional-thrust using only fixed unidirectional thrusters. We also designed a controller for such vehicle that respects the unidirectionality of the thrusters; ii) Cable suspended load manipulation: we proposed a communication-less control strategy for a team of two robots manipulating an object that guarantees the stability and passivity of the system; iii) Control for unidirectional-thrust aerial manipulators: we proposed a flatnessbased decentralized controller for protocentric unidirectional-thrust aerial manipulators endowed with any number of articulated arms; iv) Motion planning for aerial manipulators: we proposed a control-aware motion planner based on the paradigm of control and planning tied together, for aerial manipulators in interaction with the environment; v) Push-and-slide tasks with an aerial manipulator: considering a truly redundant aerial manipulator based on a multidirectional-thrust aerial vehicle, we designed a controller that, together with the previously mentioned planner, allows the operation of push-and-slide tasks. Such a complete aerial system, result of a wise design of the mechanical system and its controller and motion planner, has been integrated with a sensory suit and used for a real contactbased inspection of a metallic pipe.

Mots-Clés / Keywords
Aerial robots; Aerial physical interaction; Tethered aerial vehicles; Control; Motion planning; Aerial manipulation; Aerial manipulation by cables; Multidirectional- thrust aerial vehicles; Robots aériens; Interaction physique aérienne; Véhicules aériens attachés par des câbles; Commande; Planification du mouvement; Manipulation aérienne; Manipulation aérienne via des câbles; Véhicules aériens à poussée multidirectionnelle;

145985
18097
01/02/2018

Intuitive, iterative and assisted virtual guides programming for human-robot comanipulation

S.SANCHEZ RESTREPO

RIS

Doctorat : Université de Toulouse III - Paul Sabatier, Février 2018, 209p., Président: O.BRUNEAU, Rapporteurs: P.FRAISSE, G.MOREL, Examinateurs: J.DUMORA, S.LACROIX, Directeurs de thèse: D.SIDOBRE, X.LAMY , N° 18097

Lien : https://hal.laas.fr/tel-01785574

Diffusable

Plus d'informations

Résumé

Pendant très longtemps, l’automatisation a été assujettie à l’usage de robots industriels traditionnels placés dans des cages et programmés pour répéter des tâches plus ou moins complexes au maximum de leur vitesse et de leur précision. Cette automatisation, dite rigide, possède deux inconvénients majeurs : elle est chronophage dû aux contraintes contextuelles applicatives et proscrit la présence humaine. Il existe désormais une nouvelle génération de robots avec des systèmes moins encombrants, peu coûteux et plus flexibles. De par leur structure et leurs modes de fonctionnement ils sont intrinsèquement sûrs ce qui leurs permettent de travailler main dans la main avec les humains. Dans ces nouveaux espaces de travail collaboratifs, l’homme peut être inclus dans la boucle comme un agent décisionnel actif. En tant qu’instructeur ou collaborateur il peut influencer le processus décisionnel du robot : on parle de robots collaboratifs (ou cobots). Dans ce nouveau contexte, nous faisons usage de guides virtuels. Ils permettent aux cobots de soulager les efforts physiques et la charge cognitive des opérateurs. Cependant, la définition d’un guide virtuel nécessite souvent une expertise et une modélisation précise de la tâche. Cela restreint leur utilité aux scénarios à contraintes fixes. Pour palier ce problème et améliorer la flexibilité de la programmation du guide virtuel, cette thèse présente une nouvelle approche par démonstration : nous faisons usage de l’apprentissage kinesthésique de façon itérative et construisons le guide virtuel avec une spline 6D. Grâce à cette approche, l’opérateur peut modifier itérativement les guides tout en gardant leur assistance. Cela permet de rendre le processus plus intuitif et naturel ainsi que de réduire la pénibilité. La modification locale d’un guide virtuel en trajectoire est possible par interaction physique avec le robot. L’utilisateur peut déplacer un point clé Cartésien ou modifier une portion entière du guide avec une nouvelle démonstration partielle. Nous avons également étendu notre approche aux guides virtuels 6D, où les splines en déplacement sont définies via une interpolation Akima (pour la translation) et une interpolation quadratique des quaternions (pour l’orientation). L’opérateur peut initialement définir un guide virtuel en trajectoire, puis utiliser l’assistance en translation pour ne se concentrer que sur la démonstration de l’orientation. Nous avons appliqué notre approche dans deux scénarios industriels utilisant un cobot. Nous avons ainsi démontré l’intérêt de notre méthode qui améliore le confort de l’opérateur lors de la comanipulation.

Abstract

For a very long time, automation was driven by the use of traditional industrial robots placed in cages, programmed to repeat more or less complex tasks at their highest speed and with maximum accuracy. This robot-oriented solution is heavily dependent on hard automation which requires pre-specified fixtures and time consuming programming, hindering robots from becoming flexible and versatile tools. These robots have evolved towards a new generation of small, inexpensive, inherently safe and flexible systems that work hand in hand with humans. In these new collaborative workspaces the human can be included in the loop as an active agent. As a teacher and as a co-worker he can influence the decision-making process of the robot. In this context, virtual guides are an important tool used to assist the human worker by reducing physical effort and cognitive overload during tasks accomplishment. However, the construction of virtual guides often requires expert knowledge and modeling of the task. These limitations restrict the usefulness of virtual guides to scenarios with unchanging constraints. To overcome these challenges and enhance the flexibility of virtual guides programming, this thesis presents a novel approach that allows the worker to create virtual guides by demonstration through an iterative method based on kinesthetic teaching and displacement splines. Thanks to this approach, the worker is able to iteratively modify the guides while being assisted by them, making the process more intuitive and natural while reducing its painfulness. Our approach allows local refinement of virtual guiding trajectories through physical interaction with the robots. We can modify a specific cartesian keypoint of the guide or re-demonstrate a portion. We also extended our approach to 6D virtual guides, where displacement splines are defined via Akima interpolation (for translation) and quadratic interpolation of quaternions (for orientation). The worker can initially define a virtual guiding trajectory and then use the assistance in translation to only concentrate on defining the orientation along the path. We demonstrated that these innovations provide a novel and intuitive solution to increase the human’s comfort during human-robot comanipulation in two industrial scenarios with a collaborative robot (cobot).

Mots-Clés / Keywords
Virtual guides; Programming by demonstration; Collaborative robotics; Comanipulation; Guides vrituels; Programation par démonstration; Robotique collaborative;

143313
18326
17/01/2018

Models, Algorithms and Architectures for Cooperative Manipulation with Aerial and Ground Robots

N.STAUB

RIS

Doctorat : Université de Toulouse III - Paul Sabatier, 17 Janvier 2018, 199p., Président: S.LACROIX, Rapporteurs: A.OLLERO, P.FRAISSE, Examinateurs: P.ROBUFFO GIORDANO, S.HIRCHE, Directeurs de thèse: A.FRANCHI , N° 18326

Lien : https://hal.laas.fr/tel-01922250

Diffusable

Plus d'informations

Résumé

Les dernières années ont vu le développement de recherches portant sur l’interaction physique entre les robots aériens et leur environnement, accompagné de l’apparition de nombreux nouveaux systèmes mécaniques et approches de régulation. La communauté centrée autour de la robotique aérienne observe actuellement un déplacement de paradigmes des approches classiques de guidage, de navigation et de régulation vers des tâches moins triviales, telle le développement de l’interaction physique entre robots aériens et leur environnement. Ceci correspond à une extension des tâches dites de manipulation, du sol vers les airs. Cette thèse contribue au domaine de la manipulation aérienne en proposant un nouveau concept appelé MAGMaS, pour « Multiple Aerial Ground Manipulator System ». Les motivations qui ont conduites à l’association de manipulateurs terrestres et aériens pour effectuer des tâches de manipulation coopérative, résident dans une volonté d’exploiter leurs particularités respectives. Les manipulateurs terrestres apportant leur importante force et les manipulateurs aériens apportant leur vaste espace de travail. La première contribution de cette thèse présente une modélisation rigoureuse des MAGMaS. Les propriétés du système ainsi que ses possibles extensions sont discutées. Les méthodes de planning, d’estimation et de régulation nécessaire à l’exploitation des MAGMaS pour des tâches de manipulation collaborative sont dérivées. Ce travail propose d’exploiter les redondances des MAGMaS grâce à un algorithme optimal d’allocation de forces entre les manipulateurs. De plus, une méthode générale d’estimation de forces pour robots aériens est introduite. Toutes les techniques et les algorithmes présentés dans cette thèse sont intégrés dans une architecture globale, utilisée à la fois pour la simulation et la validation expérimentale. Cette architecture est en outre augmentée par l’addition d’une structure de télé-présence, afin de permettre l’opération à distances des MAGMaS. L’architecture générale est validée par une démonstration de levage de barre, qui est une application représentative des potentiels usages des MAGMaS. Une autre contribution relative au développement des MAGMaS consiste en une étude exploratoire de la flexibilité dans les objets manipulés par un MAGMaS. Un modèle du phénomène vibratoire est dérivé afin de mettre en exergue ses propriétés en termes de contrôle. La dernière contribution de cette thèse consiste en une étude exploratoire sur l’usage des actionneurs à raideur variable dans les robots aériens, dotant ces systèmes d’une compliance mécanique intrinsèque et de capacité de stockage d’énergie. Les fondements théoriques sont associés à la synthèse d’un contrôleur non-linéaire. L’approche proposée est validée par le biais d’expériences reposant sur l’intégration d’un actionneur à raideur variable léger sur un robot aérien.

Abstract

In recent years, the subject of physical interaction for aerial robots has been a popular research area with many new mechanical designs and control approaches being proposed. The aerial robotics community is currently observing a paradigm shift from classic guidance, navigation, and control tasks towards more unusual tasks, for example requesting aerial robots to physically interact with the environment, thus extending the manipulation task from the ground into the air. This thesis contributes to the field of aerial manipulation by proposing a novel concept known has Multiple Aerial-Ground Manipulator System or MAGMaS, including what appears to be the first experimental demonstration of a MAGMaS and opening a new route of research. The motivation behind associating ground and aerial robots for cooperative manipulation is to leverage their respective particularities, ground robots bring strength while aerial robots widen the workspace of the system. The first contribution of this work introduces a meticulous system model for MAGMaS. The system model’s properties and potential extensions are discussed in this work. The planning, estimation and control methods which are necessary to exploit MAGMaS in a cooperative manipulation tasks are derived. This works proposes an optimal control allocation scheme to exploit the MAGMaS redundancies and a general model-based force estimation method is presented. All of the proposed techniques reported in this thesis are integrated in a global architecture used for simulations and experimental validation. This architecture is extended by the addition of a tele-presence framework to allow remote operations of MAGMaS. The global architecture is validated by robust demonstrations of bar lifting, an application that gives an outlook of the prospective use of the proposed concept of MAGMaS. Another contribution in the development of MAGMaS consists of an exploratory study on the flexibility of manipulated loads. A vibration model is derived and exploited to showcase vibration properties in terms of control. The last contribution of this thesis consists of an exploratory study on the use of elastic joints in aerial robots, endowing these systems with mechanical compliance and energy storage capabilities. Theoretical groundings are associated with a nonlinear controller synthesis. The proposed approach is validated by experimental work which relies on the integration of a lightweight variable stiffness actuator on an aerial robot.

Mots-Clés / Keywords
Cyber-physical systems; Aerial manipulation systems; Shared control; Non-linear control and estimation; Manipulation with compliant actuators; Systèmes cyber-physiques; Système de manipulation aérienne; Commande partagée; Commande et observateur non-linéaires; Manipulation avec actionneur souple;

144933
17660
03/10/2017

Human-aware space sharing and navigation for an interactive robot

H.KHAMBHAITA

RIS

Doctorat : Université de Toulouse III - Paul Sabatier, 3 Octobre 2017, 160p., Président: T.SIMEON, Rapporteurs: A.SANFELIU, A.SPALANZANI, Examinateurs: L.MERINO, A KUMAR PANDEY, Directeurs de thèse: R.ALAMI , N° 17660

Lien : https://hal.laas.fr/tel-01931244

Diffusable

Plus d'informations

Résumé

Les méthodes de planification de mouvements robotiques se sont développées à un rythme accéléré ces dernières années. L’accent a principalement été mis sur le fait de rendre les robots plus efficaces, plus sécurisés et plus rapides à réagir à des situations imprévisibles. En conséquence, nous assistons de plus en plus à l’introduction des robots de service dans notre vie quotidienne, en particulier dans les lieux publics tels que les musées, les centres commerciaux et les aéroports. Tandis qu’un robot de service mobile se déplace dans l’environnement humain, il est important de prendre en compte l’effet de son comportement sur les personnes qu’il croise ou avec lesquelles il interagit. Nous ne les voyons pas comme de simples machines, mais comme des agents sociaux et nous nous attendons à ce qu’ils se comportent de manière similaire à l’homme en suivant les normes sociétales comme des règles. Ceci a créé de nouveaux défis et a ouvert de nouvelles directions de recherche pour concevoir des algorithmes de commande de robot, qui fournissent des comportements de robot acceptables, lisibles et proactifs. Cette thèse propose une méthode coopérative basée sur l’optimisation pour la planification de trajectoire et la navigation du robot avec des contraintes sociales intégrées pour assurer des mouvements de robots prudents, conscients de la présence de l’être humain et prévisibles. La trajectoire du robot est ajustée dynamiquement et continuellement pour satisfaire ces contraintes sociales. Pour ce faire, nous traitons la trajectoire du robot comme une bande élastique (une construction mathématique représentant la trajectoire du robot comme une série de positions et une différence de temps entre ces positions) qui peut être déformée (dans l’espace et dans le temps) par le processus d’optimisation pour respecter les contraintes données. De plus, le robot prédit aussi les trajectoires humaines plausibles dans la même zone d’exploitation en traitant les chemins humains aussi comme des bandes élastiques. Ce système nous permet d’optimiser les trajectoires des robots non seulement pour le moment présent, mais aussi pour l’interaction entière qui se produit lorsque les humains et les robots se croisent les uns les autres. Nous avons réalisé un ensemble d’expériences avec des situations interactives humains-robots qui se produisent dans la vie de tous les jours telles que traverser un couloir, passer par une porte et se croiser sur de grands espaces ouverts. La méthode de planification coopérative proposée se compare favorablement à d’autres schémas de planification de la navigation à la pointe de la technique. Nous avons augmenté le comportement de navigation du robot avec un mouvement synchronisé et réactif de sa tête. Cela permet au robot de regarder où il va et occasionnellement de détourner son regard vers les personnes voisines pour montrer que le robot va éviter toute collision possible avec eux comme prévu par le planificateur. À tout moment, le robot pondère les multiples critères selon le contexte social et décide de ce vers quoi il devrait porter le regard. Grâce à une étude utilisateur en ligne, nous avons montré que ce mécanisme de regard complète efficacement le comportement de navigation ce qui améliore la lisibilité des actions du robot. Enfin, nous avons intégré notre schéma de navigation avec un système de supervision plus large qui peut générer conjointement des comportements du robot standard tel que l’approche d’une personne et l’adaptation de la vitesse du robot selon le groupe de personnes que le robot guide dans des scénarios d’aéroport ou de musée.

Abstract

The methods of robotic movement planning have grown at an accelerated pace in recent years. The emphasis has mainly been on making robots more efficient, safer and react faster to unpredictable situations. As a result we are witnessing more and more service robots introduced in our everyday lives, especially in public places such as museums, shopping malls and airports. While a mobile service robot moves in a human environment, it leaves an innate effect on people about its demeanor. We do not see them as mere machines but as social agents and expect them to behave humanly by following societal norms and rules. This has created new challenges and opened new research avenues for designing robot control algorithms that deliver human-acceptable, legible and proactive robot behaviors. This thesis proposes a optimization-based cooperative method for trajectoryplanning and navigation with in-built social constraints for keeping robot motions safe, human-aware and predictable. The robot trajectory is dynamically and continuously adjusted to satisfy these social constraints. To do so, we treat the robot trajectory as an elastic band (a mathematical construct representing the robot path as a series of poses and time-difference between those poses) which can be deformed (both in space and time) by the optimization process to respect given constraints. Moreover, we also predict plausible human trajectories in the same operating area by treating human paths also as elastic bands. This scheme allows us to optimize the robot trajectories not only for the current moment but for the entire interaction that happens when humans and robot cross each other’s paths. We carried out a set of experiments with canonical human-robot interactive situations that happen in our everyday lives such as crossing a hallway, passing through a door and intersecting paths on wide open spaces. The proposed cooperative planning method compares favorably against other stat-of-the-art human-aware navigation planning schemes. We have augmented robot navigation behavior with synchronized and responsive movements of the robot head, making the robot look where it is going and occasionally diverting its gaze towards nearby people to acknowledge that robot will avoid any possible collision with them. At any given moment the robot weighs multiple criteria according to the social context and decides where it should turn its gaze. Through an online user study we have shown that such gazing mechanism effectively complements the navigation behavior and it improves legibility of the robot actions. Finally, we have integrated our navigation scheme with a broader supervision system which can jointly generate normative robot behaviors such as approaching a person and adapting the robot speed according to a group of people who the robot guides in airports or museums.

Mots-Clés / Keywords
Human-robot collaboration; Execution control; Robot navigation; HRI; Collaboration homme-robot; Contrôle d'exécution; Navigation de robot;

145173
17458
12/07/2017

Study on the use of vision and laser range sensors with graphical models for the slam problem

E.PAIVA MENDES

RIS

Doctorat : INSA de Toulouse, 12 Juillet 2017, 116p., Président: R.ALAMI, Rapporteurs: R.CHAPUIS, L.JAULIN, Examinateurs: P.BONNIFAIT, J.SOLA, Directeurs de thèse: S.LACROIX , N° 17458

Lien : https://hal.laas.fr/tel-01676275

Diffusable

Plus d'informations

Résumé

La capacité des robots mobiles à se localiser précisément par rapport à leur environnement est indispensable à leur autonomie. Pour ce faire, les robots exploitent les données acquises par des capteurs qui observent leur état interne, tels que centrales inertielles ou l’odométrie, et les données acquises par des capteurs qui observent l’environnement, telles que les caméras et les Lidars. L’exploitation de ces derniers capteurs a suscité le développement de solutions qui estiment conjointement la position du robot et la position des éléments dans la environnement, appelées SLAM (Simultaneous Localization and Mapping). Pour gérer le bruit des données provenant des capteurs, les solutions pour le SLAM sont mises en oeuvre dans un contexte probabiliste. Les premiers développements étaient basés sur le filtre de Kalman étendu, mais des développements plus récents utilisent des modèles graphiques probabilistes pour modéliser le problème d’estimation et de le résoudre grâce à techniques d’optimisation. Cette thèse exploite cette dernière approche et propose deux techniques distinctes pour les véhicules terrestres autonomes: une utilisant la vision monoculaire, l’autre un Lidar. L’absence d’information de profondeur dans les images obtenues par une caméra a mené à l’utilisation de paramétrisations spécifiques pour les points de repères qui isolent la profondeur inconnue dans une variable, concentrant la grande incertitude sur la profondeur dans un seul paramètre. Une de ces paramétrisations, nommé paramétrisation pour l’angle de parallaxe (ou PAP, Parallax Angle Parametrization), a été introduite dans le contexte du problème d’ajustement de faisceaux, qui traite l’ensemble des données en une seule étape d’optimisation globale. Nous présentons comment exploiter cette paramétrisation dans une approche incrémentale de SLAM à base de modèles graphiques, qui intègre également les mesures de mouvement du robot. Les Lidars peuvent être utilisés pour construire des solutions d’odométrie grâce à un recalage séquentiel des nuages de points acquis le long de la trajectoire. Nous définissons une couche basée sur les modèles graphiques au dessus d’une telle couche d’odométrie, qui utilise l’algorithme ICP (Iterative Closest Points). Des repères clefs (keyframes) sont définis le long de la trajectoire du robot, et les résultats de l’algorithme ICP sont utilisés pour construire un graphe de poses, exploité pour résoudre un problème d’optimisation qui permet la correction de l’ensemble de la trajectoire du robot et de la carte de l’environnement à suite des fermetures de boucle. Après une introduction à la théorie des modèles graphiques appliquée au problème de SLAM, le manuscrit présente ces deux approches. Des résultats simulés et expérimentaux illustrent les développements tout au long du manuscrit, en utilisant des jeux des données classiques et obtenus au laboratoire.

Abstract

A strong requirement to deploy autonomous mobile robots is their capacity to localize themselves with a certain precision in relation to their environment. Localization exploits data gathered by sensors that either observe the inner states of the robot, like acceleration and speed, or the environment, like cameras and Light Detection And Ranging (LIDAR) sensors. The use of environment sensors has triggered the development of localization solutions that jointly estimate the robot position and the position of elements in the environment, referred to as Simultaneous Loealization and Mapping (SLAM) approaches. To handle the noise inherent of the data coming from the sensors, SLAM solutions are implemented in a probabilistic framework. First developments were based on Extended Kalman Filters, while a more recent developments use probabilistic graphical models to model the estimation problem and solve it through optimization. This thesis exploits the latter approach to develop two distinct techniques for autonomous ground vehicles: one using monocular vision, the other one using LIDAR. The lack of depth information in camera images has fostered the use of specific landmark parametrizations that isolate the unknown depth in one variable, concentrating its large uncertainty into a single parameter. One of these parametrizations, named Parallax Angle Parametrization, was originally introduced in the context of the Bundle Adjustment problem, that processes all the gathered data in a single global optimization step. We present how to exploit this parametrization in an incremental graph-based SLAM approach in which robot motion measures are also incorporated. LIDAR sensors can be used to build odometry-like solutions for localization by sequentially registering the point clouds acquired along a robot trajectory. We define a graphical model layer on top of a LIDAR odometry layer, that uses the Iterative Closest Points (ICP) algorithm as registration technique. Reference frames are defined along the robot trajectory, and ICP results are used to build a pose graph, used to solve an optimization problem that enables the correction of the robot trajectory and the environment map upon loop closures. After an introduction to the theory of graphical models applied to SLAM problem, the manuscript depicts these two approaches. Simulated and experimental results illustrate the developments throughout the manuscript, using classic and in-house datasets.

141813
17692
05/07/2017

Kinodynamic motion planning for quadrotor-like aerial robots

A.BOEUF

RIS

Doctorat : INP de Toulouse, 5 Juillet 2017, 130p., Président: R.ALAMI, Rapporteurs: T.FRAICHARD, P.R.GIORDANO, Examinateurs: M.VENDITELLI, Directeurs de thèse: T.SIMEON, J.CORTES , N° 17692

Lien : https://hal.laas.fr/tel-01996088

Diffusable

Plus d'informations

Résumé

La planification de mouvement est le domaine de l’informatique qui a trait au développement de techniques algorithmiques permettant la génération automatique de trajectoires pour un système mécanique. La nature d’un tel système varie selon les champs d’application. En animation par ordinateur il peut s’agir d’un avatar humanoïde. En biologie moléculaire cela peut être une protéine. Le domaine d’application de ces travaux étant la robotique aérienne, le système est ici un UAV (Unmanned Aerial Vehicle: véhicule aérien sans pilote) à quatre hélices appelé quadrirotor. Le problème de planification de mouvements consiste à calculer une série de mouvements qui amène le système d’une configuration initiale donnée à une configuration finale souhaitée sans générer de collisions avec son environnement, la plupart du temps connu à l’avance. Les méthodes habituelles explorent l’espace des configurations du système sans tenir compte de sa dynamique. Cependant, la force de poussée qui permet à un quadrirotor de voler est par construction parallèle aux axes de rotation des hélices, ce qui implique que certains mouvements ne peuvent pas être effectués. De plus, l’intensité de cette force de poussée, et donc l’accélération linéaire du centre de masse, sont limitées par les capacités physiques du robot. Pour toutes ces raisons, non seulement la position et l’orientation doivent être planifiées, mais les dérivées plus élevées doivent l’être également si l’on veut que le système physique soit en mesure de réellement exécuter le mouvement. Lorsque c’est le cas, on parle de planification kinodynamique de mouvements. Une distinction est faite entre le planificateur local et le planificateur global. Le premier est chargé de produire une trajectoire valide entre deux états du système sans nécessairement tenir compte des collisions. Le second est l’algorithme principal qui est chargé de résoudre le problème de planification de mouvement en explorant l’espace d’état du système. Il fait appel au planificateur local. Nous présentons un planificateur local qui interpole deux états comprenant un nombre arbitraire de degrés de liberté ainsi que leurs dérivées premières et secondes. Compte tenu d’un ensemble de limites sur les dérivées des degrés de liberté jusqu’au quatrième ordre (snap), il produit rapidement une trajectoire en temps minimal quasi-optimale qui respecte ces limites. Dans la plupart des algorithmes modernes de planification de mouvements, l’exploration est guidée par une fonction de distance (ou métrique). Le meilleur choix pour celle-ci est le cost-to-go, c.a.d. le coût associé à la méthode locale. Dans le contexte de la planification kinodynamique de mouvements, il correspond à la durée de la trajectoire en temps minimal. Le problème dans ce cas est que calculer le cost-to-go est aussi difficile (et donc aussi coûteux) que de calculer la trajectoire optimale elle-même. Nous présentons une métrique qui est une bonne approximation du cost-to-go, mais dont le calcul est beaucoup moins coûteux. Le paradigme dominant en planification de mouvements aujourd’hui est l’échantillonnage aléatoire. Cette classe d’algorithmes repose sur un échantillonnage aléatoire de l’espace d’état afin de l’explorer rapidement. Une stratégie commune est l’échantillonnage uniforme. Il semble toutefois que, dans notre contexte, ce soit un choix assez médiocre. En effet, une grande majorité des états uniformément échantillonnés ne peuvent pas être interpolés. Nous présentons une stratégie d’échantillonnage incrémentale qui diminue considérablement la probabilité que cela ne se produise.

Abstract

Motion planning is the field of computer science that aims at developing algorithmic techniques allowing the automatic computation of trajectories for a mechanical system. The nature of such a system vary according to the fields of application. In computer animation it could be a humanoid avatar. In molecular biology it could be a protein. The field of application of this work being aerial robotics, the system is here a four-rotor UAV (Unmanned Aerial Vehicle) called quadrotor. The motion planning problem consists in computing a series of motions that brings the system from a given initial configuration to a desired final configuration without generating collisions with its environment, most of the time known in advance. Usual methods explore the system’s configuration space regardless of its dynamics. By construction the thrust force that allows a quadrotor to fly is tangential to its attitude which implies that not every motion can be performed. Furthermore, the magnitude of this thrust force and hence the linear acceleration of the center of mass are limited by the physical capabilities of the robot. For all these reasons, not only position and orientation must be planned, higher derivatives must be planned also if the motion is to be executed. When this is the case we talk of kinodynamic motion planning. A distinction is made between the local planner and the global planner. The former is in charge of producing a valid trajectory between two states of the system without necessarily taking collisions into account. The later is the overall algorithmic process that is in charge of solving the motion planning problem by exploring the state space of the system. It relies on multiple calls to the local planner. We present a local planner that interpolates two states consisting of an arbitrary number of degrees of freedom (dof) and their first and second derivatives. Given a set of bounds on the dof derivatives up to the fourth order (snap), it quickly produces a near-optimal minimum time trajectory that respects those bounds. In most of modern global motion planning algorithms, the exploration is guided by a distance function (or metric). The best choice is the cost-to-go, i.e. the cost associated to the local method. In the context of kinodynamic motion planning, it is the duration of the minimal-time trajectory. The problem in this case is that computing the cost-to-go is as hard (and thus as costly) as computing the optimal trajectory itself. We present a metric that is a good approximation of the cost-to-go but which computation is far less time consuming. The dominant paradigm nowadays is sampling-based motion planning. This class of algorithms relies on random sampling of the state space in order to quickly explore it. A common strategy is uniform sampling. It however appears that, in our context, it is a rather poor choice. Indeed, a great majority of uniformly sampled states cannot be interpolated. We present an incremental sampling strategy that significantly decreases the probability of this happening.

146183
17150
12/04/2017

Robotics-inspired methods to enhance protein design

L.DENARIE

RIS

Doctorat : INP de Toulouse, 12 Avril 2017, 142p., Président: R.ALAMI, Rapporteurs: C.ROBERT, M.VENDITELLI, Examinateurs: S.REDON, Directeurs de thèse: T.SIMEON, J.CORTES , N° 17150

Lien : https://hal.laas.fr/tel-01591457

Diffusable

Plus d'informations

Résumé

La conception de protéines ayant des propriétés spécifiques représente un enjeux majeur pour la pharmacologie et les bio-technologies. Malgré les progrès des méthodes de CAO développées pour la conception de protéines, une limitation majeure des techniques existantes vient de la difficulté à prendre en compte la mobilité du squelette protéique, afin de mieux capturer l’ensemble des propriétés des protéines candidates et garantir la bonne stabilité de la protéine choisie dans la conformation voulue. De plus, si des méthodes de conception multi-états ont été proposées, elles ne permettent pas de garantir l’existence d’une trajectoire réaliste entre ces états. De ce fait, la conception de protéines devant permettre la transition entre plusieurs états reste un problème hors de la portée des méthodes actuelles. Cette thèse explore comment des algorithmes inspirés de la robotique peuvent être utilisés pour explorer l’espace conformationnel de manière efficace afin d’améliorer les méthodes de conception de protéines en prenant en compte de manière plus poussée la flexibilité de leur squelette. Ce travail pose également un premier jalon vers une méthode de conception adaptée à la réalisation d’un mouvement de la protéine.

Abstract

The ability to design proteins with specific properties would yield great progress in pharmacology and bio-technologies. Methods to design proteins have been developed since a few decades and some relevant achievements have been made including de novo protein design. Yet, current approaches suffer some serious limitations. By not taking protein’s backbone motions into account, they fail at capturing some of the properties of the candidate design and cannot guarantee that the solution will in fact be stable for the goal conformation. Besides, although multi-states design methods have been proposed, they do not guarantee that a feasible trajectory between those states exists, which means that design problem involving state transitions are out of reach of the current methods. This thesis investigates how robotics-inspired algorithms can be used to efficiently explore the conformational landscape of a protein aiming to enhance protein design methods by introducing additional backbone flexibility. This work also provides first milestones towards protein motion design.

Mots-Clés / Keywords
Path planning; Protein design; Structural biology; Robotics; Sampling based algorithms; Computational biology;

140135
16444
02/12/2016

Temporal and hierarchical models for planning and acting in robotics

A.BIT-MONNOT

RIS

Doctorat : INP de Toulouse, 2 Décembre 2016, 199p., Président: R.ALAMI, Rapporteurs: J.HERTZBERG, F.PECORA, Examinateurs: A.CESTA, C.PRALET, D.E.SMITH, Directeurs de thèse: M.GHALLAB, F.INGRAND , N° 16444

Lien : https://hal.laas.fr/tel-01444926

Diffusable

Plus d'informations

Abstract

The field of AI planning has seen rapid progress over the last decade and planners are now able to find plans with hundreds of actions in a matter of seconds. Despite those important progresses, robotic systems still tend to have a reactive architecture with very little deliberation on the course of the plan they might follow. In this thesis, we argue that a successful integration with a robotic system requires the planner to have capacities for both temporal and hierarchical reasoning. The former is indeed a universal resource central in many robot activities while the latter is a critical component for the integration of reasoning capabilities at different abstraction levels, typically starting with a high level view of an activity that is iteratively refined down to motion primitives. As a first step to carry out this vision, we present a model for temporal planning unifying the generative and hierarchical approaches. At the center of the model are temporal action templates complemented with a specification of the initial state as well as the expected evolution of the environment over time. In addition, our model allows for the specification of hierarchical knowledge possibly with a partial coverage. Consequently, our model generalizes the existing generative and hierarchical approaches together with an explicit time representation. In the subsequent chapter, we introduce a planning procedure suitable for our planning model. In order to support hierarchical features, we extend the existing Partial-Order Causal Link approach used in many constraint-based planners, with the notions of task and decomposition. We implement it in FAPE (Flexible Acting and Planning Environment) together with automated problem analysis techniques used for search guidance. We show FAPE to have performance similar to state of the art temporal planners when used in a generative setting, and the addition of hierarchical information to lead to further performance gain. Next, we study the usual methods used to reason on temporal uncertainty while planning. We relax the usual assumption of total observability and instead provide techniques to reason on the observations needed to maintain a plan dispatchable. We show how such needed observations can be detected at planning time and incrementally dealt with by considering the appropriate sensing actions. In a final chapter, we discuss the place of the proposed planning system as a central component for the control of a robotic actor. We demonstrate how the explicit time representation facilitates plan monitoring and action dispatching when dealing with contingent events that require observation. We take advantage of the constraint-based and hierarchical representation to facilitate both plan-repair procedures as well opportunistic plan refinement at acting time.

138414
16665
19/10/2016

Decision Making in Human-Robot Interaction

M.FIORE

RIS

Doctorat : INSA de Toulouse, 19 Octobre 2016, 179p., Président: M.CHETOUANI, Rapporteurs: Y.DEMIRIS, A-I.MOUADDIB, Examinateurs: F.INGRAND, Directeurs de thèse: R.ALAMI , N° 16665

Lien : https://tel.archives-ouvertes.fr/tel-01834612

Diffusable

Plus d'informations

Résumé

Un intérêt croissant est aujourd'hui porté sur les robots capables de conduire des activités de collaboration d'une manière naturelle et efficace. Nous avons développé une architecture et un système qui traitent des aspects décisionnels de ce problème. Nous avons mis en oeuvre cette architecture pour traiter trois problèmes différents: le robot observateur, le robot équipier et enfin le robot instructeur. Dans cette thèse, nous discutons des défis et problématiques de la coopération homme-robot, puis nous décrivons l'architecture que nous avons développée et enfin détaillons sa mise oeuvre et les algorithmiques spécifiques à chacun des scénarios.Dans le cadre du scénario du robot observateur, le robot maintient un état du monde à jour au moyen d'un raisonnement géométrique effectué sur les données de perception, produisant ainsi une description symbolique de l'état du monde et des agents présents. Nous montrons également, sur la base d'un système de raisonnement intégrant des processus de décision de Markov (MDPs) et des réseaux Bayésiens, comment le robot est capable d'inférer les intentions et les actions futures de ses partenaires humain, à partir d'une observation de leurs mouvements relatifs aux objets de l'environnement. Nous identifions deux types de comportements proactifs : corriger les croyances de l'homme en lui fournissant l'information pertinente qui lui permettra de réaliser son but, aider physiquement la personne dans la réalisation de sa tâche, une fois celle-ci identifiée par le robot.Dans le cas du robot équipier, ce dernier doir réaliser une tâche en coopération avec un partenaire human. Nous introduisons un planificateur nommé Human-Aware Task Planner et détaillons la gestion par notre systeme du plan partagé par un composant appelé Plan Management component. Grâce à se système, le robot peut collaborer avec les hommes selon trois modalités différentes : robot leader, human leader, ou equal partners. Nous discutons des fonctions qui permettent au robot de suivre les actions de son partenaire humain et de vérifier qu'elles sont compatibles ou non avec le plan partagé et nous montrons comment le robot est capable de produire des comportements sûrs qui permettent de réaliser la tâche en prenant en compte de manière explicite la présence et les actions de l'homme ainsi que ses préférences. L'approche est fondée sur des processus décisionnels de Markov hiérarchisés avec observabilité mixte et permet d'estimer l'engagement de l'homme et de réagir en conséquence à différents niveaux d'abstraction. Enfin, nous discutions d'une approche prospective fondée sur un planificateur multi-agent probabiliste mettant en œuvre des MDPs et de sa pertinence quant à l'amélioration du composant de gestion de plan partagé.Dans le scénario du robot instructeur, nous détaillons les processus décisionnels qui permettent au robot d'adapter le plan partagé (shared plan) en fonction de l'état de connaissance et des désirs de son partenaire humain. Selon, le cas, le robot donne plus ou moins de détails sur le plan et adapte son comportement aux connaissances de l'homme ; Une étude utilisateur a également été menée permettant de valider la pertinence de cette approche.Finalement, nous présentons la mise en œuvre d'un robot guide autonome et détaillons les processu décisionnels que nous y avons intégrés pour lui permettre de guider des voyageurs dans un hall d'aéroport en s'adaptant au mieux au contexte et aux désirs des personnes guidées. Nous illustrons dans ce contexte des comportement adaptatifs et pro-actifs. Ce système a été effectivement intégré sur le robot Spencer qui a été déployé dans le terminal principal de l'aéroport d'Amsterdam (Schiphol). Le robot a fonctionné de manière robuste et satisfaisante. Une étude utilisateur a permis, dans ce cas également, de mesurer les performances et de valider le système.

Abstract

There has been an increasing interest, in the last years, in robots that are able to cooperate with humans not only as simple tools, but as full agents, able to execute collaborative activities in a natural and efficient way. In this work, we have developed an architecture for Human-Robot Interaction able to execute joint activities with humans. We have applied this architecture to three different problems, that we called the robot observer, the robot coworker, and the robot teacher. After quickly giving an overview on the main aspects of human-robot cooperation and on the architecture of our system, we detail these problems.In the observer problem the robot monitors the environment, analyzing perceptual data through geometrical reasoning to produce symbolic information.We show how the system is able to infer humans' actions and intentions by linking physical observations, obtained by reasoning on humans' motions and their relationships with the environment, with planning and humans' mental beliefs, through a framework based on Markov Decision Processes and Bayesian Networks. We show, in a user study, that this model approaches the capacity of humans to infer intentions. We also discuss on the possible reactions that the robot can execute after inferring a human's intention. We identify two possible proactive behaviors: correcting the human's belief, by giving information to help him to correctly accomplish his goal, and physically helping him to accomplish the goal.In the coworker problem the robot has to execute a cooperative task with a human. In this part we introduce the Human-Aware Task Planner, used in different experiments, and detail our plan management component. The robot is able to cooperate with humans in three different modalities: robot leader, human leader, and equal partners. We introduce the problem of task monitoring, where the robot observes human activities to understand if they are still following the shared plan. After that, we describe how our robot is able to execute actions in a safe and robust way, taking humans into account. We present a framework used to achieve joint actions, by continuously estimating the robot's partner activities and reacting accordingly. This framework uses hierarchical Mixed Observability Markov Decision Processes, which allow us to estimate variables, such as the human's commitment to the task, and to react accordingly, splitting the decision process in different levels. We present an example of Collaborative Planner, for the handover problem, and then a set of laboratory experiments for a robot coworker scenario. Additionally, we introduce a novel multi-agent probabilistic planner, based on Markov Decision Processes, and discuss how we could use it to enhance our plan management component.In the robot teacher problem we explain how we can adapt the plan explanation and monitoring of the system to the knowledge of users on the task to perform. Using this idea, the robot will explain in less details tasks that the user has already performed several times, going more in-depth on new tasks. We show, in a user study, that this adaptive behavior is perceived by users better than a system without this capacity.Finally, we present a case study for a human-aware robot guide. This robot is able to guide users with adaptive and proactive behaviors, changing the speed to adapt to their needs, proposing a new pace to better suit the task's objectives, and directly engaging users to propose help. This system was integrated with other components to deploy a robot in the Schiphol Airport of Amsterdam, to guide groups of passengers to their flight gates. We performed user studies both in a laboratory and in the airport, demonstrating the robot's capacities and showing that it is appreciated by users.

144013
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/