Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

67documents trouvés

18197
23/04/2018

Optimal control and machine learning for humaoid and aerial robots

M.GEISERT

GEPETTO

Doctorat : INSA de Toulouse, 23 Avril 2018, 185p., Président: J.CORTES, Rapporteurs: P.Y.OUDEYER, K.LIU, Examinateurs: J.BUCHLI, S.DONCIEUX, Directeurs de thèse: N.MANSARD , N° 18197

Lien : https://hal.laas.fr/tel-01886622

Diffusable

Plus d'informations

Résumé

Quelle sont les points communs entre un robot humanoïde et un quadrimoteur ? Et bien, pas grand-chose... Cette thèse s’intéresse donc au développement d’algorithmes permettant de contrôler un robot de manière dynamique tout en restant générique par rapport au model du robot et à la tâche que l’on cherche à résoudre. Le contrôle optimal numérique est pour cela un bon candidat. Cependant il souffre de plusieurs difficultés comme un nombre important de paramètres à ajuster et des temps de calcul relativement élevés. Cette thèse présente alors plusieurs améliorations permettant dâAZatténuer ces difficultés. D’un côté, l’ordonnancement des différentes tâches sous la forme d’une hiérarchie et sa résolution avec un algorithme adapté permet de réduire le nombre de paramètres à ajuster. D’un autre côté, l’utilisation de l’apprentissage automatique afin d’initialiser l’algorithme d’optimisation ou de générer un modèle simplifié du robot permet de fortement diminuer les temps de calcul.

Abstract

What are the common characteristics of humanoid robots and quadrotors? Well, not many... Therefore, this document is focused on the development of algorithms allowing to dynamically control a robot while staying generic with respect to the model of the robot and the task that needs to be solved. Numerical optimal control is good candidate to achieve such objective. However, it suffers from several difficulties such as a high number of parameters to tune and a relatively important computation time. This document presents several ameliorations allowing to reduce these problems. On one hand, the tasks can be ordered according to a hierarchy and solved with an appropriate algorithm to lower the number of parameters to tune. On the other hand, machine learning can be used to initialize the optimization solver or to generate a simplified model of the robot, and therefore can be used to decrease the computation time.

Mots-Clés / Keywords
Optimal control; Hierarchical control; Machine learning; Motion planning; Humanoid robots; Aerial robots; Contrôle optimal; Contrôle hiérarchique; Apprentissage automatique; Plannification de mouvement; Robots humanoïdes; Robots aériens;

144093
18097
01/02/2018

Intuitive, iterative and assisted virtual guides programming for human-robot comanipulation

S.SANCHEZ RESTREPO

RIS

Doctorat : Université de Toulouse III - Paul Sabatier, Février 2018, 209p., Président: O.BRUNEAU, Rapporteurs: P.FRAISSE, G.MOREL, Examinateurs: J.DUMORA, S.LACROIX, Directeurs de thèse: D.SIDOBRE, X.LAMY , N° 18097

Lien : https://hal.laas.fr/tel-01785574

Diffusable

Plus d'informations

Résumé

Pendant très longtemps, l’automatisation a été assujettie à l’usage de robots industriels traditionnels placés dans des cages et programmés pour répéter des tâches plus ou moins complexes au maximum de leur vitesse et de leur précision. Cette automatisation, dite rigide, possède deux inconvénients majeurs : elle est chronophage dû aux contraintes contextuelles applicatives et proscrit la présence humaine. Il existe désormais une nouvelle génération de robots avec des systèmes moins encombrants, peu coûteux et plus flexibles. De par leur structure et leurs modes de fonctionnement ils sont intrinsèquement sûrs ce qui leurs permettent de travailler main dans la main avec les humains. Dans ces nouveaux espaces de travail collaboratifs, l’homme peut être inclus dans la boucle comme un agent décisionnel actif. En tant qu’instructeur ou collaborateur il peut influencer le processus décisionnel du robot : on parle de robots collaboratifs (ou cobots). Dans ce nouveau contexte, nous faisons usage de guides virtuels. Ils permettent aux cobots de soulager les efforts physiques et la charge cognitive des opérateurs. Cependant, la définition d’un guide virtuel nécessite souvent une expertise et une modélisation précise de la tâche. Cela restreint leur utilité aux scénarios à contraintes fixes. Pour palier ce problème et améliorer la flexibilité de la programmation du guide virtuel, cette thèse présente une nouvelle approche par démonstration : nous faisons usage de l’apprentissage kinesthésique de façon itérative et construisons le guide virtuel avec une spline 6D. Grâce à cette approche, l’opérateur peut modifier itérativement les guides tout en gardant leur assistance. Cela permet de rendre le processus plus intuitif et naturel ainsi que de réduire la pénibilité. La modification locale d’un guide virtuel en trajectoire est possible par interaction physique avec le robot. L’utilisateur peut déplacer un point clé Cartésien ou modifier une portion entière du guide avec une nouvelle démonstration partielle. Nous avons également étendu notre approche aux guides virtuels 6D, où les splines en déplacement sont définies via une interpolation Akima (pour la translation) et une interpolation quadratique des quaternions (pour l’orientation). L’opérateur peut initialement définir un guide virtuel en trajectoire, puis utiliser l’assistance en translation pour ne se concentrer que sur la démonstration de l’orientation. Nous avons appliqué notre approche dans deux scénarios industriels utilisant un cobot. Nous avons ainsi démontré l’intérêt de notre méthode qui améliore le confort de l’opérateur lors de la comanipulation.

Abstract

For a very long time, automation was driven by the use of traditional industrial robots placed in cages, programmed to repeat more or less complex tasks at their highest speed and with maximum accuracy. This robot-oriented solution is heavily dependent on hard automation which requires pre-specified fixtures and time consuming programming, hindering robots from becoming flexible and versatile tools. These robots have evolved towards a new generation of small, inexpensive, inherently safe and flexible systems that work hand in hand with humans. In these new collaborative workspaces the human can be included in the loop as an active agent. As a teacher and as a co-worker he can influence the decision-making process of the robot. In this context, virtual guides are an important tool used to assist the human worker by reducing physical effort and cognitive overload during tasks accomplishment. However, the construction of virtual guides often requires expert knowledge and modeling of the task. These limitations restrict the usefulness of virtual guides to scenarios with unchanging constraints. To overcome these challenges and enhance the flexibility of virtual guides programming, this thesis presents a novel approach that allows the worker to create virtual guides by demonstration through an iterative method based on kinesthetic teaching and displacement splines. Thanks to this approach, the worker is able to iteratively modify the guides while being assisted by them, making the process more intuitive and natural while reducing its painfulness. Our approach allows local refinement of virtual guiding trajectories through physical interaction with the robots. We can modify a specific cartesian keypoint of the guide or re-demonstrate a portion. We also extended our approach to 6D virtual guides, where displacement splines are defined via Akima interpolation (for translation) and quadratic interpolation of quaternions (for orientation). The worker can initially define a virtual guiding trajectory and then use the assistance in translation to only concentrate on defining the orientation along the path. We demonstrated that these innovations provide a novel and intuitive solution to increase the human’s comfort during human-robot comanipulation in two industrial scenarios with a collaborative robot (cobot).

Mots-Clés / Keywords
Virtual guides; Programming by demonstration; Collaborative robotics; Comanipulation; Guides vrituels; Programation par démonstration; Robotique collaborative;

143313
17519
13/12/2017

Handling uncertainty and variability in robot control

N.GIFTSUN

GEPETTO

Doctorat : INSA de Toulouse, 13 Décembre 2017, 115p., Président: P.PLOEGER, Rapporteurs: V.PADOIS, Examinateurs: A.DEL PRETE, Directeurs de thèse: F.LAMIRAUX , N° 17519

Lien : https://hal.laas.fr/tel-01713007

Diffusable

Plus d'informations

Abstract

Amidst a lot of research in motion planning and control in concern with robotic applications, the mankind has never reached a point yet, where the robots are perfectly functional and autonomous in dynamic settings. Though it is controversial to discuss about the necessity of such robots, it is very important to address the issues that stop us from achieving such a level of autonomy. Industrial robots have evolved to be very reliable and highly productive with more than 1.5 million operational robots in a variety of industries. These robots work in static settings and they literally do what they are programmed for specific usecases, though the robots are flexible enough to be programmed for a variety of tasks. This research work makes an attempt to address these issues that separate both these settings in a profound way with special focus on uncertainties. Practical impossibilities of precise sensing abilities lead to a variety of uncertainties in scenarios where the robot is mobile or the environment is dynamic. This work focuses on developing smart strategies to improve the ability to handle uncertainties robustly in humanoid and industrial robots. First, we focus on a dynamical obstacle avoidance framework proposed for industrial robots equipped with skin sensors for reactivity. Path planning and motion control are usually formalized as separate problems in robotics. High dimensional configuration spaces, changing environment and uncertainties do not allow to plan real-time motion ahead of time requiring a controller to execute the planned trajectory. The fundamental inability to unify both these problems has led to handle the planned trajectory amidst perturbations and unforeseen obstacles using various trajectory execution and deformation mechanisms. The proposed framework uses ’Stack of Tasks’, a hierarchical controller using proximity information to avoid obstacles. Experiments are performed on a UR5 robot to check the validity of the framework and its potential use for collaborative robot applications. Second, we focus on a strategy to model inertial parameters uncertainties in a balance controller for legged robots. Model-based control has become more and more popular in the legged robots community in the last ten years. The key idea is to exploit a model of the system to compute precise motor commands that result in the desired motion. This allows to improve the quality of the motion tracking, while using lower feedback gains, leading so to higher compliance. However, the main flaw of this approach is typically its lack of robustness to modeling errors. In this paper we focus on the robustness of inverse-dynamics control to errors in the inertial parameters of the robot. We assume these parameters to be known, but only with a certain accuracy. We then propose a computationally-efficient optimization-based controller that ensures the balance of the robot despite these uncertainties. We used the proposed controller in simulation to perform different reaching tasks with the HRP-2 humanoid robot, in the presence of various modeling errors. Comparisons against a standard inverse-dynamics controller through hundreds of simulations show the superiority of the proposed controller in ensuring the robot balance.

142375
17608
12/12/2017

Planification interactive de mouvement avec contact

N.BLIN

GEPETTO

Doctorat : INP de Toulouse, 12 Décembre 2017, 134p., Président: R.ZAPATA, Rapporteurs: V.PERDEREAU, B.FOUAD, Examinateurs: , Directeurs de thèse: J.Y.FOURQUET, M.TAIX, P.FILLATREAU , N° 17608

Lien : https://hal.archives-ouvertes.fr/tel-01769238

Diffusable

Plus d'informations

Abstract

Designing new industrial products requires to develop prototypes prior to their launch phase. An interesting solution to speedup the development phase and reduce its costs is to use virtual prototypes as long as possible. Some steps of the development consist in assembly or disassembly operations. These operations can be done manually or automatically using a motion planning algorithm. Motion planning is a method allowing a computer to simulate the motion of an object from a start point to a goal point while avoiding obstacles. The following research work brings solutions for the interaction between a human operator and a motion planning algorithm of virtual objects for the exploration of free space. Research time is split between the human and the machine according to an authority sharing parameter determining the percentage of time allocated to one or the other entity. The simultaneous use of a human and a machine greatly speedup the exploration in comparison to the time needed by any of the former two alone. This work then presents a new interactive motion planner with contact. This method permits to generate trajectories at the surface of obstacles instead of free space trajectories. Contact motion planning allows specific operations such as sliding or insertion. This greatly diminishes the solving time of motion planning problems in cluttered environments. Detecting the intentions of a user when he interacts with a machine is a good way to convey orders efficiently and intuitively. An algorithm for interactive contact planning with intention detection techniques is proposed. This algorithm uses a haptic robot allowing a user to feel virtual obstacles when manipulating a virtual object in a virtual reality environment. The interactive algorithm adapts to the actions of the user in real time for a pertinent exploration of the surfaces of obstacles. This work has been done partly in LAAS-CNRS laboratory in Toulouse in Gepetto team and partly in LGP-ENIT laboratory in Tarbes in DIDS team. We wish to thank the Midi-Pyrénées region for funding this research.

Résumé

La conception de nouveaux produits industriels nécessite le développement de prototypes avant leur déploiement grand public. Afin d’accélérer cette phase et de réduire les coûts qui en découlent, une solution intéressante consiste a utiliser des prototypes virtuels le plus longtemps possible en particulier dans la phase de conception. Certaines des étapes de la conception consistent à effectuer des opérations d’assemblage ou de désassemblage. Ces opérations peuvent être effectuées manuellement ou automatiquement à l’aide d’un algorithme de planification de mouvement. La planification de mouvement est une méthode permettant à un ordinateur de simuler le déplacement d’un objet d’un point de départ à un point d’arrivée tout en évitant les obstacles. Le travail de recherche de cette thèse apporte des solutions afin d’améliorer l’interaction entre un humain et un algorithme de planification de mouvement pendant l’exploration de l’espace libre. Le temps de recherche est partagé entre l’humain et la machine selon un paramètre de partage d’autorité permettant de déterminer le pourcentage d’allocation du temps à l’une ou l’autre entité. L’utilisation simultanée de ces deux entités permet d’accélérer grandement la vitesse d’exploration par rapport à la vitesse d’un humain seul ou d’un algorithme seul. Ces travaux apportent ensuite une nouvelle méthode de planification de mouvement avec contact permettant de générer des trajectoires à la surface des obstacles au lieu de les générer uniquement dans l’espace libre. La planification au contact permet d’effectuer des opérations spécifiques telles que le glissement ou l’insertion utiles pour la résolution de problèmes de planification dans des environnements encombrés. Enfin, détecter les intentions d’un utilisateur lorsqu’il interagit avec une machine permet de lui fournir des ordres efficacement et intuitivement. Dans le cadre de la planification interactive au contact, un algorithme de détection d’intention est proposé. Ce dernier s’appuie sur l’utilisation d’un robot haptique permettant à un opérateur de ressentir les obstacles virtuels lors de la manipulation d’un objet virtuel dans un environnement de réalité virtuelle. L’algorithme interactif s’adapte en temps réel aux actions de l’opérateur pour une exploration pertinente de la surface des obstacles. Ces travaux ont été menés en partie au laboratoire toulousain LAAS au sein de l’équipe Gepetto et en partie dans le laboratoire LGP de l’ENIT au sein de l’équipe DIDS. Nous remercions la région Midi-Pyrénées pour avoir financé ces recherches.

Mots-Clés / Keywords
Planification au contact; Planification de mouvement; Robotique; Informatique; Réalité virtuelle; Retour haptique; Détection d'intention; Computer science; Robotics; Motion planning; Virtual reality; Haptic feedback; Intention detection;

143213
17643
29/11/2017

Analysis and Generation of Highly Dynamic Motions of Anthropomorphic Systems: Application to Parkour

G.MALDONADO

GEPETTO

Doctorat : 29 Novembre 2017, 149p., Président: E.BURDET, Rapporteurs: A.ROBY-BRAMI, F.MULTON, Examinateurs: E.BURDET, Directeurs de thèse: B.WATIER, P.SOUERES , N° 17643

Diffusable

Plus d'informations

Résumé

Cette thèse fournit une approche interdisciplinaire originale pour le traitement du mouvement humain corps-complet grâce à l’utilisation synergique des approches de la biomécanique, du contrôle moteur et de la robotique. Des méthodes robustes de biomécanique sont utilisées pour l’enregistrement, le traitement et l’analyse du mouvement humain. L’approche "Uncontrolled Manifold" du contrôle moteur est étendue pour étudier des mouvements très dynamiques, traités dans l’étude biomécanique. Ceci permet de déterminer si les tâches dynamiques hypothétiques sont contrôlées de manière stable par le cerveau et d’inférer une organisation hiérarchique des tâches motrices contrôlées. Le formalisme de l’espace des tâches utilisé en robotique pour la génération de mouvement corps-complet et la hiérarchie des tâches extraites dans l’étude du contrôle moteur sont utilisés pour générer mouvement humain très dynamique. Cette approche permet de mieux comprendre le mouvement humain et de générer du mouvement de ce dernier avec des systèmes anthropomorphes. Une étude de cas de mouvements très dynamiques et complexes de Parkour, y compris les sauts et les techniques d’atterrissage, est utilisée pour illustrer l’approche proposée.

Abstract

This thesis provides an original interdisciplinary approach for the treatment of whole-body human movement through the synergistic utilization of biomechanics, motor control and robotics approaches. Robust methods of biomechanics are used for recording, processing and analyzing whole-body human motion. The uncontrolled manifold approach (UCM) of motor control is extended for studying highly dynamic movements, processed in the biomechanics study, in order to determine if hypothesized dynamic tasks are being controlled stably by the brain and to infer a hierarchical organization of the controlled motor tasks. The task space formalism of motion generation in robotics is used for generating whole-body motion taking into account the hierarchy of tasks extracted in the motor control study. This approach allows for better understanding human dynamic motion and for generating whole-body human motion with anthropomorphic systems. A case study of highly dynamic and complex movements of Parkour, including jumps and landing techniques, is utilized for illustrating the proposed approach.

Mots-Clés / Keywords
Redundancy; Whole-body motion; Biomechanics; Motor control; Robotics; Human-inspired motion; Task space; Uncontrolled Manifold; Parkour; Highly dynamic motion; Redondance; Mouvement corps-complet; Biomécanique; Contrôle moteur; Robotique; Mouvement inspiré de l’homme; Espace de tâches; Mouvement hautement dynamique;

144653
17406
17/10/2017

Estimation et stabilisation de l'état d'un robot humanoïde compliant

A.MIFSUD

GEPETTO

Doctorat : INP de Toulouse, 17 Octobre 2017, 113p., Président: C.CHEVALLEREAU, Rapporteurs: T.HAMEL, Examinateurs: J.SOLA, P.B.WIEBER, Directeurs de thèse: F.LAMIRAUX, M.BENALLEGUE , N° 17406

Lien : https://hal.laas.fr/tel-01653163

Diffusable

Plus d'informations

Résumé

Cette thèse traite de l’estimation et de la stabilisation de l’état des compliances passives présentes dans les chevilles du robot humanoïde HRP-2. Ces compliances peuvent être vues comme un degré de liberté unique et observable, sous quelques hypothèses qui sont explicitées. L’estimateur utilise des mesures provenant de la centrale inertielle située dans le torse du robot et éventuellement des capteurs de forces situés dans ses pieds. Un filtre de Kalman étendu est utilisé pour l’estimation d’état. Ce filtre utilise un modèle complet de la dynamique du robot, pour lequel la dynamique interne du robot, considérée comme parfaitement connue et contrôlée, a été découplée de la dynamique de la compliance passive du robot. L’observabilité locale de l’état a été montrée en considérant ce modèle et les mesures provenant de la centrale inertielle seule. Il a de plus été montré que l’ajout des mesures des capteurs de forces dans les pieds du robot permet de compléter l’état avec des mesures d’erreurs dans le modèle dynamique du robot. L’estimateur a été validé expérimentalement sur le robot humanoïde HRP-2. Sur cet estimateur a été construit un stabilisateur de l’état de la compliance d’HRP-2. L’état commandé est la position et vitesse du centre de masse (contrôle indirecte de la quantité de mouvement) du robot, l’orientation et la vitesse angulaire de son tronc (contrôle indirecte du moment cinétique), ainsi que l’orientation et la vitesse angulaire de la compliance. Les grandeurs de commande sont l’accélération du centre de masse du robot et l’accélération angulaire de son tronc. Un régulateur quadratique linéaire (LQR) a été utilisé pour calculer les gains du retour d’état, basé sur un modèle appelé "pendule inverse flexible à roue d’inertie" qui consiste en un pendule inverse dont la base est flexible et où une répartition de masse en rotation autour du centre de masse du robot représente le tronc du robot. Des tests ont été effectués sur le robot HRP-2 en double support, utilisant l’estimateur décrit précédemment avec ou sans les capteurs de forces.

Mots-Clés / Keywords
Estimation; Asservissement; Robotique humanoïde;

141453
17469
05/09/2017

Mouvement actif pour la localisation binaurale de sources sonores en robotique

G.BUSTAMANTE

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, Septembre 2017, 145p., Président: Y.DEVILLE, Rapporteurs: L.GIRIN, E.VINCENT, Examinateurs: I.PETROVIC, A.RAAKE, R.HORAUD, Directeurs de thèse: P.DANES , N° 17469

Lien : https://hal.laas.fr/tel-01681138

Diffusable

Plus d'informations

Résumé

Ce travail s’inscrit dans le contexte de la localisation de source sonore depuis un capteur binaural (constitué de deux microphones placés sur un élément diffusant) doté de mobilité. Un schéma de localisation « active » en trois phases est considéré : (a) estimation de primitives spatiales par une analyse courtterme du flux audio ; (b) localisation audio-motrice par assimilation de ces données et combinaison avec les ordres moteurs du capteur au sein d’un schéma d’estimation stochastique ; (c) commande en boucle fermée du mouvement du capteur de façon à améliorer la qualité de la localisation. Les recherches portent sur la définition de stratégies de « mouvement actif » constituant la phase (c). Le problème est formulé comme la maximisation d’un critère d’information défini à partir des lois de filtrage de la position relative capteur-source sur un horizon temporel glissant dans le futur (plus exactement de son espérance sur les observations qui seront assimilées sur cet horizon conditionnellement aux observations passées). Cet horizon peut être constitué du prochain instant ou des N prochains instants, ce qui donne lieu à une stratégie « one-step-ahead » ou « N-step-ahead », respectivement. Une approximation de ce critère par utilisation de la transformée « unscented » et le calcul automatique du gradient de celle-ci par exploitation des nombres duaux, permettent la détermination de la commande (en boucle fermée sur l’audio donc) à appliquer au capteur. Les résultats ont été validés par des simulations réalistes, et, pour certains, par des expérimentations sur un ensemble tête-torse anthropomorphe doté de perception binaurale et de mobilité.

Mots-Clés / Keywords
Audition en robotique; Localisation binaurale active; Théorie de l’information;

141893
17634
01/09/2017

Computational foundations of anthropomorphic locomotion

J.CARPENTIER

GEPETTO

Doctorat : Université de Toulouse III - Paul Sabatier, 1er Septembre 2017, 132p., Président: Y.CHITOUR, Rapporteurs: A.ALBU-SCHAFFER, S.SCHAAL, Examinateurs: P.B.WIEBER, C.CHEVALLEREAU, A.KHEDDAR, Directeurs de thèse: J.P.LAUMOND, N.MANSARD , N° 17634

Lien : https://hal.laas.fr/tel-01841095

Diffusable

Plus d'informations

Résumé

La locomotion anthropomorphe est un processus complexe qui met en jeu un très grand nombre de degrés de liberté, le corps humain disposant de plus de trois cents articulations contre une trentaine chez les robots humanoïdes. Pris dans leur ensemble, ces degrés de liberté montrent une certaine cohérence rendant possible la mise en mouvement du système anthropomorphe et le maintien de son équilibre, dans le but d’éviter la chute. Cette thèse met en lumière les fondements calculatoires à l’origine de cette orchestration. Elle introduit un cadre mathématique unifié permettant à la fois l’étude de la locomotion humaine, et la génération de trajectoires locomotrices pour les robots humanoïdes. Ce cadre consiste en une réduction de la dynamique corps-complet du système pour ne considérer que sa projection autour du centre de gravité, aussi appelée dynamique centroïdale. Bien que réduite, nous montrons que cette dynamique centroïdale joue un rôle central dans la compréhension et la formation des mouvements locomoteurs. Pour ce faire, nous établissons dans un premier temps les conditions d’observabilité de cette dynamique, c’est-à-dire que nous montrons dans quelle mesure cette donnée peut être appréhendée à partir des capteurs couramment employés en biomécanique et en robotique. Forts de ces conditions d’observabilité, nous proposons un estimateur capable de reconstruire la position non-biaisée du centre de gravité. A partir de cet estimateur et de l’acquisition de mouvements de marche sur divers sujets, nous mettons en évidence la présence d’un motif cycloïdal du centre de gravité dans le plan sagittal lorsque l’humain marche de manière nominale, c’est-à-dire sans y penser. La présence de ce motif suggère l’existence d’une synergie motrice jusqu’alors ignorée, soutenant la théorie d’une coordination générale des mouvements pendant la locomotion. La dernière contribution de cette thèse porte sur la locomotion multi-contacts. Les humains ont une agilité remarquable pour effectuer des mouvements locomoteurs qui nécessitent l’utilisation conjointe des bras et des jambes, comme lors de l’ascension d’une paroi rocheuse. Comment doter les robots humanoïdes de telles capacités ? La difficulté n’est certainement pas technologique, puisque les robots actuels sont capables de développer des puissances mécaniques suffisantes. Leurs performances, évaluées tant en termes de qualité des mouvements que de temps de calcul, restent très limitées. Dans cette thèse, nous abordons le problème de génération de trajectoires multi-contacts sous la forme d’un problème de commande optimale. L’intérêt de cette formulation est de partir du modèle réduit de la dynamique centroïdale tout en répondant aux contraintes d’équilibre. L’idée originale consiste à maximiser la vraisemblance de cette dynamique réduite vis-à-vis de la dynamique corps-complet. Elle repose sur l’apprentissage d’une mesure d’occupation qui reflète les capacités cinématiques et dynamiques du robot. Elle est effective : l’algorithmique qui en découle est compatible avec des applications temps réel. L’approche a été évaluée avec succès sur le robot humanoïde HRP-2, sur plusieurs modes de locomotions, démontrant ainsi sa polyvalence.

Mots-Clés / Keywords
Locomotion anthropomorphe; Robotique humanoïde; Biomécanique; Contrôle optimal; Estimation; Apprentissage automatique;

143973
17458
12/07/2017

Study on the use of vision and laser range sensors with graphical models for the slam problem

E.PAIVA MENDES

RIS

Doctorat : INSA de Toulouse, 12 Juillet 2017, 116p., Président: R.ALAMI, Rapporteurs: R.CHAPUIS, L.JAULIN, Examinateurs: P.BONNIFAIT, J.SOLA, Directeurs de thèse: S.LACROIX , N° 17458

Lien : https://hal.laas.fr/tel-01676275

Diffusable

Plus d'informations

Résumé

La capacité des robots mobiles à se localiser précisément par rapport à leur environnement est indispensable à leur autonomie. Pour ce faire, les robots exploitent les données acquises par des capteurs qui observent leur état interne, tels que centrales inertielles ou l’odométrie, et les données acquises par des capteurs qui observent l’environnement, telles que les caméras et les Lidars. L’exploitation de ces derniers capteurs a suscité le développement de solutions qui estiment conjointement la position du robot et la position des éléments dans la environnement, appelées SLAM (Simultaneous Localization and Mapping). Pour gérer le bruit des données provenant des capteurs, les solutions pour le SLAM sont mises en oeuvre dans un contexte probabiliste. Les premiers développements étaient basés sur le filtre de Kalman étendu, mais des développements plus récents utilisent des modèles graphiques probabilistes pour modéliser le problème d’estimation et de le résoudre grâce à techniques d’optimisation. Cette thèse exploite cette dernière approche et propose deux techniques distinctes pour les véhicules terrestres autonomes: une utilisant la vision monoculaire, l’autre un Lidar. L’absence d’information de profondeur dans les images obtenues par une caméra a mené à l’utilisation de paramétrisations spécifiques pour les points de repères qui isolent la profondeur inconnue dans une variable, concentrant la grande incertitude sur la profondeur dans un seul paramètre. Une de ces paramétrisations, nommé paramétrisation pour l’angle de parallaxe (ou PAP, Parallax Angle Parametrization), a été introduite dans le contexte du problème d’ajustement de faisceaux, qui traite l’ensemble des données en une seule étape d’optimisation globale. Nous présentons comment exploiter cette paramétrisation dans une approche incrémentale de SLAM à base de modèles graphiques, qui intègre également les mesures de mouvement du robot. Les Lidars peuvent être utilisés pour construire des solutions d’odométrie grâce à un recalage séquentiel des nuages de points acquis le long de la trajectoire. Nous définissons une couche basée sur les modèles graphiques au dessus d’une telle couche d’odométrie, qui utilise l’algorithme ICP (Iterative Closest Points). Des repères clefs (keyframes) sont définis le long de la trajectoire du robot, et les résultats de l’algorithme ICP sont utilisés pour construire un graphe de poses, exploité pour résoudre un problème d’optimisation qui permet la correction de l’ensemble de la trajectoire du robot et de la carte de l’environnement à suite des fermetures de boucle. Après une introduction à la théorie des modèles graphiques appliquée au problème de SLAM, le manuscrit présente ces deux approches. Des résultats simulés et expérimentaux illustrent les développements tout au long du manuscrit, en utilisant des jeux des données classiques et obtenus au laboratoire.

Abstract

A strong requirement to deploy autonomous mobile robots is their capacity to localize themselves with a certain precision in relation to their environment. Localization exploits data gathered by sensors that either observe the inner states of the robot, like acceleration and speed, or the environment, like cameras and Light Detection And Ranging (LIDAR) sensors. The use of environment sensors has triggered the development of localization solutions that jointly estimate the robot position and the position of elements in the environment, referred to as Simultaneous Loealization and Mapping (SLAM) approaches. To handle the noise inherent of the data coming from the sensors, SLAM solutions are implemented in a probabilistic framework. First developments were based on Extended Kalman Filters, while a more recent developments use probabilistic graphical models to model the estimation problem and solve it through optimization. This thesis exploits the latter approach to develop two distinct techniques for autonomous ground vehicles: one using monocular vision, the other one using LIDAR. The lack of depth information in camera images has fostered the use of specific landmark parametrizations that isolate the unknown depth in one variable, concentrating its large uncertainty into a single parameter. One of these parametrizations, named Parallax Angle Parametrization, was originally introduced in the context of the Bundle Adjustment problem, that processes all the gathered data in a single global optimization step. We present how to exploit this parametrization in an incremental graph-based SLAM approach in which robot motion measures are also incorporated. LIDAR sensors can be used to build odometry-like solutions for localization by sequentially registering the point clouds acquired along a robot trajectory. We define a graphical model layer on top of a LIDAR odometry layer, that uses the Iterative Closest Points (ICP) algorithm as registration technique. Reference frames are defined along the robot trajectory, and ICP results are used to build a pose graph, used to solve an optimization problem that enables the correction of the robot trajectory and the environment map upon loop closures. After an introduction to the theory of graphical models applied to SLAM problem, the manuscript depicts these two approaches. Simulated and experimental results illustrate the developments throughout the manuscript, using classic and in-house datasets.

141813
17362
10/07/2017

Vision based navigation in a dynamic environment

M.FUTTERLIEB

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, Juillet 2017, 198p., Président: M.DEVY, Rapporteurs: E.M.MOUADDIB, R.ZAPATA, Examinateurs: A.DURAND PETITEVILLE, Directeurs de thèse: V.CADENAT, T.SENTENAC , N° 17362

Lien : https://hal.laas.fr/tel-01624233

Diffusable

Plus d'informations

Résumé

Cette thèse s'intéresse au problème de la navigation autonome au long cours de robots mobiles à roues dans des environnements dynamiques. Elle s'inscrit dans le cadre du projet FUI Aircobot. Ce projet, porté par Akka Technologies, a vu collaborer plusieurs entreprises (Akka, Airbus, 2MORROW, Sterela) ainsi que deux laboratoires de recherche, le LAAS et Mines Albi. L'objectif est de développer un robot collaboratif (ou cobot) capable de réaliser l'inspection d'un avion avant le décollage ou en hangar. Différents aspects ont donc été abordés : le contrôle non destructif, la stratégie de navigation, le développement du système robotisé et de son instrumentation, etc. Cette thèse répond au second problème évoqué, celui de la navigation. L'environnement considéré étant aéroportuaire, il est hautement structuré et répond à des normes de déplacement très strictes (zones interdites, etc.). Il peut être encombré d'obstacles statiques (attendus ou non) et dynamiques (véhicules divers, piétons, ...) qu'il conviendra d'éviter pour garantir la sécurité des biens et des personnes. Cette thèse présente deux contributions. La première porte sur la synthèse d'un asservissement visuel permettant au robot de se déplacer sur de longues distances (autour de l'avion ou en hangar) grâce à une carte topologique et au choix de cibles dédiées. De plus, cet asservissement visuel exploite les informations fournies par toutes les caméras embarquées. La seconde contribution porte sur la sécurité et l'évitement d'obstacles. Une loi de commande basée sur les spirales équiangulaires exploite seulement les données sensorielles fournies par les lasers embarqués. Elle est donc purement référencée capteur et permet de contourner tout obstacle, qu'il soit fixe ou mobile. Il s'agit donc d'une solution générale permettant de garantir la non collision. Enfin, des résultats expérimentaux, réalisés au LAAS et sur le site d'Airbus à Blagnac, montrent l'efficacité de la stratégie développée.

Abstract

This thesis is directed towards the autonomous long range navigation of wheeled robots in dynamic environments. It takes place within the Aircobot project. This project aims at designing a collaborative robot (cobot) able to perform the preflight inspection of an aircraft. The considered environment is then highly structured (airport runway and hangars) and may be cluttered with both static and dynamic unknown obstacles (luggage or refueling trucks, pedestrians, etc.). Our navigation framework relies on previous works and is based on the switching between different control laws (go to goal controller, visual servoing, obstacle avoidance) depending on the context. Our contribution is twofold. First of all, we have designed a visual servoing controller able to make the robot move over a long distance thanks to a topological map and to the choice of suitable targets. In addition, multi-camera visual servoing control laws have been built to benefit from the image data provided by the different cameras which are embedded on the Aircobot system. The second contribution is related to obstacle avoidance. A control law based on equiangular spirals has been designed to guarantee non collision. This control law, based on equiangular spirals, is fully sensor-based, and allows to avoid static and dynamic obstacles alike. It then provides a general solution to deal efficiently with the collision problem. Experimental results, performed both in LAAS and in Airbus hangars and runways, show the efficiency of the developed techniques.

Mots-Clés / Keywords
Asservissement visuel; Evitement de collision; Navigation; Navigation visuelle;

141193
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/