Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

63documents trouvés

18097
01/02/2018

Intuitive, iterative and assisted virtual guides programming for human-robot comanipulation

S.SANCHEZ RESTREPO

RIS

Doctorat : Université de Toulouse III - Paul Sabatier, Février 2018, 209p., Président: O.BRUNEAU, Rapporteurs: P.FRAISSE, G.MOREL, Examinateurs: J.DUMORA, S.LACROIX, Directeurs de thèse: D.SIDOBRE, X.LAMY , N° 18097

Lien : https://hal.laas.fr/tel-01785574

Diffusable

Plus d'informations

Résumé

Pendant très longtemps, l’automatisation a été assujettie à l’usage de robots industriels traditionnels placés dans des cages et programmés pour répéter des tâches plus ou moins complexes au maximum de leur vitesse et de leur précision. Cette automatisation, dite rigide, possède deux inconvénients majeurs : elle est chronophage dû aux contraintes contextuelles applicatives et proscrit la présence humaine. Il existe désormais une nouvelle génération de robots avec des systèmes moins encombrants, peu coûteux et plus flexibles. De par leur structure et leurs modes de fonctionnement ils sont intrinsèquement sûrs ce qui leurs permettent de travailler main dans la main avec les humains. Dans ces nouveaux espaces de travail collaboratifs, l’homme peut être inclus dans la boucle comme un agent décisionnel actif. En tant qu’instructeur ou collaborateur il peut influencer le processus décisionnel du robot : on parle de robots collaboratifs (ou cobots). Dans ce nouveau contexte, nous faisons usage de guides virtuels. Ils permettent aux cobots de soulager les efforts physiques et la charge cognitive des opérateurs. Cependant, la définition d’un guide virtuel nécessite souvent une expertise et une modélisation précise de la tâche. Cela restreint leur utilité aux scénarios à contraintes fixes. Pour palier ce problème et améliorer la flexibilité de la programmation du guide virtuel, cette thèse présente une nouvelle approche par démonstration : nous faisons usage de l’apprentissage kinesthésique de façon itérative et construisons le guide virtuel avec une spline 6D. Grâce à cette approche, l’opérateur peut modifier itérativement les guides tout en gardant leur assistance. Cela permet de rendre le processus plus intuitif et naturel ainsi que de réduire la pénibilité. La modification locale d’un guide virtuel en trajectoire est possible par interaction physique avec le robot. L’utilisateur peut déplacer un point clé Cartésien ou modifier une portion entière du guide avec une nouvelle démonstration partielle. Nous avons également étendu notre approche aux guides virtuels 6D, où les splines en déplacement sont définies via une interpolation Akima (pour la translation) et une interpolation quadratique des quaternions (pour l’orientation). L’opérateur peut initialement définir un guide virtuel en trajectoire, puis utiliser l’assistance en translation pour ne se concentrer que sur la démonstration de l’orientation. Nous avons appliqué notre approche dans deux scénarios industriels utilisant un cobot. Nous avons ainsi démontré l’intérêt de notre méthode qui améliore le confort de l’opérateur lors de la comanipulation.

Abstract

For a very long time, automation was driven by the use of traditional industrial robots placed in cages, programmed to repeat more or less complex tasks at their highest speed and with maximum accuracy. This robot-oriented solution is heavily dependent on hard automation which requires pre-specified fixtures and time consuming programming, hindering robots from becoming flexible and versatile tools. These robots have evolved towards a new generation of small, inexpensive, inherently safe and flexible systems that work hand in hand with humans. In these new collaborative workspaces the human can be included in the loop as an active agent. As a teacher and as a co-worker he can influence the decision-making process of the robot. In this context, virtual guides are an important tool used to assist the human worker by reducing physical effort and cognitive overload during tasks accomplishment. However, the construction of virtual guides often requires expert knowledge and modeling of the task. These limitations restrict the usefulness of virtual guides to scenarios with unchanging constraints. To overcome these challenges and enhance the flexibility of virtual guides programming, this thesis presents a novel approach that allows the worker to create virtual guides by demonstration through an iterative method based on kinesthetic teaching and displacement splines. Thanks to this approach, the worker is able to iteratively modify the guides while being assisted by them, making the process more intuitive and natural while reducing its painfulness. Our approach allows local refinement of virtual guiding trajectories through physical interaction with the robots. We can modify a specific cartesian keypoint of the guide or re-demonstrate a portion. We also extended our approach to 6D virtual guides, where displacement splines are defined via Akima interpolation (for translation) and quadratic interpolation of quaternions (for orientation). The worker can initially define a virtual guiding trajectory and then use the assistance in translation to only concentrate on defining the orientation along the path. We demonstrated that these innovations provide a novel and intuitive solution to increase the human’s comfort during human-robot comanipulation in two industrial scenarios with a collaborative robot (cobot).

Mots-Clés / Keywords
Virtual guides; Programming by demonstration; Collaborative robotics; Comanipulation; Guides vrituels; Programation par démonstration; Robotique collaborative;

143313
17519
13/12/2017

Handling uncertainty and variability in robot control

N.GIFTSUN

GEPETTO

Doctorat : INSA de Toulouse, 13 Décembre 2017, 115p., Président: P.PLOEGER, Rapporteurs: V.PADOIS, Examinateurs: A.DEL PRETE, Directeurs de thèse: F.LAMIRAUX , N° 17519

Lien : https://hal.laas.fr/tel-01713007

Diffusable

Plus d'informations

Abstract

Amidst a lot of research in motion planning and control in concern with robotic applications, the mankind has never reached a point yet, where the robots are perfectly functional and autonomous in dynamic settings. Though it is controversial to discuss about the necessity of such robots, it is very important to address the issues that stop us from achieving such a level of autonomy. Industrial robots have evolved to be very reliable and highly productive with more than 1.5 million operational robots in a variety of industries. These robots work in static settings and they literally do what they are programmed for specific usecases, though the robots are flexible enough to be programmed for a variety of tasks. This research work makes an attempt to address these issues that separate both these settings in a profound way with special focus on uncertainties. Practical impossibilities of precise sensing abilities lead to a variety of uncertainties in scenarios where the robot is mobile or the environment is dynamic. This work focuses on developing smart strategies to improve the ability to handle uncertainties robustly in humanoid and industrial robots. First, we focus on a dynamical obstacle avoidance framework proposed for industrial robots equipped with skin sensors for reactivity. Path planning and motion control are usually formalized as separate problems in robotics. High dimensional configuration spaces, changing environment and uncertainties do not allow to plan real-time motion ahead of time requiring a controller to execute the planned trajectory. The fundamental inability to unify both these problems has led to handle the planned trajectory amidst perturbations and unforeseen obstacles using various trajectory execution and deformation mechanisms. The proposed framework uses ’Stack of Tasks’, a hierarchical controller using proximity information to avoid obstacles. Experiments are performed on a UR5 robot to check the validity of the framework and its potential use for collaborative robot applications. Second, we focus on a strategy to model inertial parameters uncertainties in a balance controller for legged robots. Model-based control has become more and more popular in the legged robots community in the last ten years. The key idea is to exploit a model of the system to compute precise motor commands that result in the desired motion. This allows to improve the quality of the motion tracking, while using lower feedback gains, leading so to higher compliance. However, the main flaw of this approach is typically its lack of robustness to modeling errors. In this paper we focus on the robustness of inverse-dynamics control to errors in the inertial parameters of the robot. We assume these parameters to be known, but only with a certain accuracy. We then propose a computationally-efficient optimization-based controller that ensures the balance of the robot despite these uncertainties. We used the proposed controller in simulation to perform different reaching tasks with the HRP-2 humanoid robot, in the presence of various modeling errors. Comparisons against a standard inverse-dynamics controller through hundreds of simulations show the superiority of the proposed controller in ensuring the robot balance.

142375
17608
12/12/2017

Planification interactive de mouvement avec contact

N.BLIN

GEPETTO

Doctorat : INP de Toulouse, 12 Décembre 2017, 134p., Président: R.ZAPATA, Rapporteurs: V.PERDEREAU, B.FOUAD, Examinateurs: , Directeurs de thèse: J.Y.FOURQUET, M.TAIX, P.FILLATREAU , N° 17608

Lien : https://hal.archives-ouvertes.fr/tel-01769238

Diffusable

Plus d'informations

Abstract

Designing new industrial products requires to develop prototypes prior to their launch phase. An interesting solution to speedup the development phase and reduce its costs is to use virtual prototypes as long as possible. Some steps of the development consist in assembly or disassembly operations. These operations can be done manually or automatically using a motion planning algorithm. Motion planning is a method allowing a computer to simulate the motion of an object from a start point to a goal point while avoiding obstacles. The following research work brings solutions for the interaction between a human operator and a motion planning algorithm of virtual objects for the exploration of free space. Research time is split between the human and the machine according to an authority sharing parameter determining the percentage of time allocated to one or the other entity. The simultaneous use of a human and a machine greatly speedup the exploration in comparison to the time needed by any of the former two alone. This work then presents a new interactive motion planner with contact. This method permits to generate trajectories at the surface of obstacles instead of free space trajectories. Contact motion planning allows specific operations such as sliding or insertion. This greatly diminishes the solving time of motion planning problems in cluttered environments. Detecting the intentions of a user when he interacts with a machine is a good way to convey orders efficiently and intuitively. An algorithm for interactive contact planning with intention detection techniques is proposed. This algorithm uses a haptic robot allowing a user to feel virtual obstacles when manipulating a virtual object in a virtual reality environment. The interactive algorithm adapts to the actions of the user in real time for a pertinent exploration of the surfaces of obstacles. This work has been done partly in LAAS-CNRS laboratory in Toulouse in Gepetto team and partly in LGP-ENIT laboratory in Tarbes in DIDS team. We wish to thank the Midi-Pyrénées region for funding this research.

Résumé

La conception de nouveaux produits industriels nécessite le développement de prototypes avant leur déploiement grand public. Afin d’accélérer cette phase et de réduire les coûts qui en découlent, une solution intéressante consiste a utiliser des prototypes virtuels le plus longtemps possible en particulier dans la phase de conception. Certaines des étapes de la conception consistent à effectuer des opérations d’assemblage ou de désassemblage. Ces opérations peuvent être effectuées manuellement ou automatiquement à l’aide d’un algorithme de planification de mouvement. La planification de mouvement est une méthode permettant à un ordinateur de simuler le déplacement d’un objet d’un point de départ à un point d’arrivée tout en évitant les obstacles. Le travail de recherche de cette thèse apporte des solutions afin d’améliorer l’interaction entre un humain et un algorithme de planification de mouvement pendant l’exploration de l’espace libre. Le temps de recherche est partagé entre l’humain et la machine selon un paramètre de partage d’autorité permettant de déterminer le pourcentage d’allocation du temps à l’une ou l’autre entité. L’utilisation simultanée de ces deux entités permet d’accélérer grandement la vitesse d’exploration par rapport à la vitesse d’un humain seul ou d’un algorithme seul. Ces travaux apportent ensuite une nouvelle méthode de planification de mouvement avec contact permettant de générer des trajectoires à la surface des obstacles au lieu de les générer uniquement dans l’espace libre. La planification au contact permet d’effectuer des opérations spécifiques telles que le glissement ou l’insertion utiles pour la résolution de problèmes de planification dans des environnements encombrés. Enfin, détecter les intentions d’un utilisateur lorsqu’il interagit avec une machine permet de lui fournir des ordres efficacement et intuitivement. Dans le cadre de la planification interactive au contact, un algorithme de détection d’intention est proposé. Ce dernier s’appuie sur l’utilisation d’un robot haptique permettant à un opérateur de ressentir les obstacles virtuels lors de la manipulation d’un objet virtuel dans un environnement de réalité virtuelle. L’algorithme interactif s’adapte en temps réel aux actions de l’opérateur pour une exploration pertinente de la surface des obstacles. Ces travaux ont été menés en partie au laboratoire toulousain LAAS au sein de l’équipe Gepetto et en partie dans le laboratoire LGP de l’ENIT au sein de l’équipe DIDS. Nous remercions la région Midi-Pyrénées pour avoir financé ces recherches.

Mots-Clés / Keywords
Planification au contact; Planification de mouvement; Robotique; Informatique; Réalité virtuelle; Retour haptique; Détection d'intention; Computer science; Robotics; Motion planning; Virtual reality; Haptic feedback; Intention detection;

143213
17406
17/10/2017

Estimation et stabilisation de l'état d'un robot humanoïde compliant

A.MIFSUD

GEPETTO

Doctorat : INP de Toulouse, 17 Octobre 2017, 113p., Président: C.CHEVALLEREAU, Rapporteurs: T.HAMEL, Examinateurs: J.SOLA, P.B.WIEBER, Directeurs de thèse: F.LAMIRAUX, M.BENALLEGUE , N° 17406

Lien : https://hal.laas.fr/tel-01653163

Diffusable

Plus d'informations

Résumé

Cette thèse traite de l’estimation et de la stabilisation de l’état des compliances passives présentes dans les chevilles du robot humanoïde HRP-2. Ces compliances peuvent être vues comme un degré de liberté unique et observable, sous quelques hypothèses qui sont explicitées. L’estimateur utilise des mesures provenant de la centrale inertielle située dans le torse du robot et éventuellement des capteurs de forces situés dans ses pieds. Un filtre de Kalman étendu est utilisé pour l’estimation d’état. Ce filtre utilise un modèle complet de la dynamique du robot, pour lequel la dynamique interne du robot, considérée comme parfaitement connue et contrôlée, a été découplée de la dynamique de la compliance passive du robot. L’observabilité locale de l’état a été montrée en considérant ce modèle et les mesures provenant de la centrale inertielle seule. Il a de plus été montré que l’ajout des mesures des capteurs de forces dans les pieds du robot permet de compléter l’état avec des mesures d’erreurs dans le modèle dynamique du robot. L’estimateur a été validé expérimentalement sur le robot humanoïde HRP-2. Sur cet estimateur a été construit un stabilisateur de l’état de la compliance d’HRP-2. L’état commandé est la position et vitesse du centre de masse (contrôle indirecte de la quantité de mouvement) du robot, l’orientation et la vitesse angulaire de son tronc (contrôle indirecte du moment cinétique), ainsi que l’orientation et la vitesse angulaire de la compliance. Les grandeurs de commande sont l’accélération du centre de masse du robot et l’accélération angulaire de son tronc. Un régulateur quadratique linéaire (LQR) a été utilisé pour calculer les gains du retour d’état, basé sur un modèle appelé "pendule inverse flexible à roue d’inertie" qui consiste en un pendule inverse dont la base est flexible et où une répartition de masse en rotation autour du centre de masse du robot représente le tronc du robot. Des tests ont été effectués sur le robot HRP-2 en double support, utilisant l’estimateur décrit précédemment avec ou sans les capteurs de forces.

Mots-Clés / Keywords
Estimation; Asservissement; Robotique humanoïde;

141453
17469
05/09/2017

Mouvement actif pour la localisation binaurale de sources sonores en robotique

G.BUSTAMANTE

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, Septembre 2017, 145p., Président: Y.DEVILLE, Rapporteurs: L.GIRIN, E.VINCENT, Examinateurs: I.PETROVIC, A.RAAKE, R.HORAUD, Directeurs de thèse: P.DANES , N° 17469

Lien : https://hal.laas.fr/tel-01681138

Diffusable

Plus d'informations

Résumé

Ce travail s’inscrit dans le contexte de la localisation de source sonore depuis un capteur binaural (constitué de deux microphones placés sur un élément diffusant) doté de mobilité. Un schéma de localisation « active » en trois phases est considéré : (a) estimation de primitives spatiales par une analyse courtterme du flux audio ; (b) localisation audio-motrice par assimilation de ces données et combinaison avec les ordres moteurs du capteur au sein d’un schéma d’estimation stochastique ; (c) commande en boucle fermée du mouvement du capteur de façon à améliorer la qualité de la localisation. Les recherches portent sur la définition de stratégies de « mouvement actif » constituant la phase (c). Le problème est formulé comme la maximisation d’un critère d’information défini à partir des lois de filtrage de la position relative capteur-source sur un horizon temporel glissant dans le futur (plus exactement de son espérance sur les observations qui seront assimilées sur cet horizon conditionnellement aux observations passées). Cet horizon peut être constitué du prochain instant ou des N prochains instants, ce qui donne lieu à une stratégie « one-step-ahead » ou « N-step-ahead », respectivement. Une approximation de ce critère par utilisation de la transformée « unscented » et le calcul automatique du gradient de celle-ci par exploitation des nombres duaux, permettent la détermination de la commande (en boucle fermée sur l’audio donc) à appliquer au capteur. Les résultats ont été validés par des simulations réalistes, et, pour certains, par des expérimentations sur un ensemble tête-torse anthropomorphe doté de perception binaurale et de mobilité.

Mots-Clés / Keywords
Audition en robotique; Localisation binaurale active; Théorie de l’information;

141893
17458
12/07/2017

Study on the use of vision and laser range sensors with graphical models for the slam problem

E.PAIVA MENDES

RIS

Doctorat : INSA de Toulouse, 12 Juillet 2017, 116p., Président: R.ALAMI, Rapporteurs: R.CHAPUIS, L.JAULIN, Examinateurs: P.BONNIFAIT, J.SOLA, Directeurs de thèse: S.LACROIX , N° 17458

Lien : https://hal.laas.fr/tel-01676275

Diffusable

Plus d'informations

Résumé

La capacité des robots mobiles à se localiser précisément par rapport à leur environnement est indispensable à leur autonomie. Pour ce faire, les robots exploitent les données acquises par des capteurs qui observent leur état interne, tels que centrales inertielles ou l’odométrie, et les données acquises par des capteurs qui observent l’environnement, telles que les caméras et les Lidars. L’exploitation de ces derniers capteurs a suscité le développement de solutions qui estiment conjointement la position du robot et la position des éléments dans la environnement, appelées SLAM (Simultaneous Localization and Mapping). Pour gérer le bruit des données provenant des capteurs, les solutions pour le SLAM sont mises en oeuvre dans un contexte probabiliste. Les premiers développements étaient basés sur le filtre de Kalman étendu, mais des développements plus récents utilisent des modèles graphiques probabilistes pour modéliser le problème d’estimation et de le résoudre grâce à techniques d’optimisation. Cette thèse exploite cette dernière approche et propose deux techniques distinctes pour les véhicules terrestres autonomes: une utilisant la vision monoculaire, l’autre un Lidar. L’absence d’information de profondeur dans les images obtenues par une caméra a mené à l’utilisation de paramétrisations spécifiques pour les points de repères qui isolent la profondeur inconnue dans une variable, concentrant la grande incertitude sur la profondeur dans un seul paramètre. Une de ces paramétrisations, nommé paramétrisation pour l’angle de parallaxe (ou PAP, Parallax Angle Parametrization), a été introduite dans le contexte du problème d’ajustement de faisceaux, qui traite l’ensemble des données en une seule étape d’optimisation globale. Nous présentons comment exploiter cette paramétrisation dans une approche incrémentale de SLAM à base de modèles graphiques, qui intègre également les mesures de mouvement du robot. Les Lidars peuvent être utilisés pour construire des solutions d’odométrie grâce à un recalage séquentiel des nuages de points acquis le long de la trajectoire. Nous définissons une couche basée sur les modèles graphiques au dessus d’une telle couche d’odométrie, qui utilise l’algorithme ICP (Iterative Closest Points). Des repères clefs (keyframes) sont définis le long de la trajectoire du robot, et les résultats de l’algorithme ICP sont utilisés pour construire un graphe de poses, exploité pour résoudre un problème d’optimisation qui permet la correction de l’ensemble de la trajectoire du robot et de la carte de l’environnement à suite des fermetures de boucle. Après une introduction à la théorie des modèles graphiques appliquée au problème de SLAM, le manuscrit présente ces deux approches. Des résultats simulés et expérimentaux illustrent les développements tout au long du manuscrit, en utilisant des jeux des données classiques et obtenus au laboratoire.

Abstract

A strong requirement to deploy autonomous mobile robots is their capacity to localize themselves with a certain precision in relation to their environment. Localization exploits data gathered by sensors that either observe the inner states of the robot, like acceleration and speed, or the environment, like cameras and Light Detection And Ranging (LIDAR) sensors. The use of environment sensors has triggered the development of localization solutions that jointly estimate the robot position and the position of elements in the environment, referred to as Simultaneous Loealization and Mapping (SLAM) approaches. To handle the noise inherent of the data coming from the sensors, SLAM solutions are implemented in a probabilistic framework. First developments were based on Extended Kalman Filters, while a more recent developments use probabilistic graphical models to model the estimation problem and solve it through optimization. This thesis exploits the latter approach to develop two distinct techniques for autonomous ground vehicles: one using monocular vision, the other one using LIDAR. The lack of depth information in camera images has fostered the use of specific landmark parametrizations that isolate the unknown depth in one variable, concentrating its large uncertainty into a single parameter. One of these parametrizations, named Parallax Angle Parametrization, was originally introduced in the context of the Bundle Adjustment problem, that processes all the gathered data in a single global optimization step. We present how to exploit this parametrization in an incremental graph-based SLAM approach in which robot motion measures are also incorporated. LIDAR sensors can be used to build odometry-like solutions for localization by sequentially registering the point clouds acquired along a robot trajectory. We define a graphical model layer on top of a LIDAR odometry layer, that uses the Iterative Closest Points (ICP) algorithm as registration technique. Reference frames are defined along the robot trajectory, and ICP results are used to build a pose graph, used to solve an optimization problem that enables the correction of the robot trajectory and the environment map upon loop closures. After an introduction to the theory of graphical models applied to SLAM problem, the manuscript depicts these two approaches. Simulated and experimental results illustrate the developments throughout the manuscript, using classic and in-house datasets.

141813
17362
10/07/2017

Vision based navigation in a dynamic environment

M.FUTTERLIEB

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, Juillet 2017, 198p., Président: M.DEVY, Rapporteurs: E.M.MOUADDIB, R.ZAPATA, Examinateurs: A.DURAND PETITEVILLE, Directeurs de thèse: V.CADENAT, T.SENTENAC , N° 17362

Lien : https://hal.laas.fr/tel-01624233

Diffusable

Plus d'informations

Résumé

Cette thèse s'intéresse au problème de la navigation autonome au long cours de robots mobiles à roues dans des environnements dynamiques. Elle s'inscrit dans le cadre du projet FUI Aircobot. Ce projet, porté par Akka Technologies, a vu collaborer plusieurs entreprises (Akka, Airbus, 2MORROW, Sterela) ainsi que deux laboratoires de recherche, le LAAS et Mines Albi. L'objectif est de développer un robot collaboratif (ou cobot) capable de réaliser l'inspection d'un avion avant le décollage ou en hangar. Différents aspects ont donc été abordés : le contrôle non destructif, la stratégie de navigation, le développement du système robotisé et de son instrumentation, etc. Cette thèse répond au second problème évoqué, celui de la navigation. L'environnement considéré étant aéroportuaire, il est hautement structuré et répond à des normes de déplacement très strictes (zones interdites, etc.). Il peut être encombré d'obstacles statiques (attendus ou non) et dynamiques (véhicules divers, piétons, ...) qu'il conviendra d'éviter pour garantir la sécurité des biens et des personnes. Cette thèse présente deux contributions. La première porte sur la synthèse d'un asservissement visuel permettant au robot de se déplacer sur de longues distances (autour de l'avion ou en hangar) grâce à une carte topologique et au choix de cibles dédiées. De plus, cet asservissement visuel exploite les informations fournies par toutes les caméras embarquées. La seconde contribution porte sur la sécurité et l'évitement d'obstacles. Une loi de commande basée sur les spirales équiangulaires exploite seulement les données sensorielles fournies par les lasers embarqués. Elle est donc purement référencée capteur et permet de contourner tout obstacle, qu'il soit fixe ou mobile. Il s'agit donc d'une solution générale permettant de garantir la non collision. Enfin, des résultats expérimentaux, réalisés au LAAS et sur le site d'Airbus à Blagnac, montrent l'efficacité de la stratégie développée.

Abstract

This thesis is directed towards the autonomous long range navigation of wheeled robots in dynamic environments. It takes place within the Aircobot project. This project aims at designing a collaborative robot (cobot) able to perform the preflight inspection of an aircraft. The considered environment is then highly structured (airport runway and hangars) and may be cluttered with both static and dynamic unknown obstacles (luggage or refueling trucks, pedestrians, etc.). Our navigation framework relies on previous works and is based on the switching between different control laws (go to goal controller, visual servoing, obstacle avoidance) depending on the context. Our contribution is twofold. First of all, we have designed a visual servoing controller able to make the robot move over a long distance thanks to a topological map and to the choice of suitable targets. In addition, multi-camera visual servoing control laws have been built to benefit from the image data provided by the different cameras which are embedded on the Aircobot system. The second contribution is related to obstacle avoidance. A control law based on equiangular spirals has been designed to guarantee non collision. This control law, based on equiangular spirals, is fully sensor-based, and allows to avoid static and dynamic obstacles alike. It then provides a general solution to deal efficiently with the collision problem. Experimental results, performed both in LAAS and in Airbus hangars and runways, show the efficiency of the developed techniques.

Mots-Clés / Keywords
Asservissement visuel; Evitement de collision; Navigation; Navigation visuelle;

141193
17149
07/07/2017

Motion planning for digital actors

M.CAMPANA

GEPETTO

Doctorat : Université de Toulouse III - Paul Sabatier, 17 Juillet 2017, 115p., Président:, Rapporteurs: L.REVERET, K.YAMANE, Examinateurs: M.VENDITELLI, J.CORTES, Directeurs de thèse: J.P.LAUMOND , N° 17149

Lien : https://hal.laas.fr/tel-01591472

Diffusable

Plus d'informations

Résumé

Les algorithmes probabilistes offrent de puissantes possibilités quant à la résolution de problèmes de planification de mouvements pour des robots complexes dans des environnements quelconques. Cependant, la qualité des chemins solutions obtenus est discutable. Cette thèse propose un outil pour optimiser ces chemins et en améliorer la qualité. La méthode se base sur l’optimisation numérique contrainte et la détection de collision pour réduire la longueur du chemin tout en évitant les collisions. La modularité des méthodes probabilistes nous a aussi inspirés pour réaliser un algorithme de génération de sauts pour des personnages. Cet algorithme est décrit par trois étapes de planifications, de la trajectoire du centre du personnage jusqu’à son mouvement corps-complet. Chaque étape bénéficie de la rigueur de la planification pour éviter les collisions et pour contraindre le chemin. Nous avons proposé des contraintes inspirées de la physique pour améliorer la plausibilité des mouvements, telles que du non-glissement, de la limitation de vitesse et du maintien de contacts. Les travaux de cette thèse ont été intégrés dans le logiciel “Humanoid Path Planner” et les rendus visuels effectués avec Blender.

Abstract

Probabilistic algorithms offer powerful possibilities as for solving motion planning problems for complex robots in arbitrary environments. However, the quality of obtained solution paths is questionable. This thesis presents a tool to optimize these paths and improve their quality. The method is based on constrained numerical optimization and on collision checking to reduce the path length while avoiding collisions. The modularity of probabilistic methods also inspired us to design a motion generation algorithm for jumping characters. This algorithm is described by three steps of motion planning, from the trajectory of the character’s center to the wholebody motion. Each step benefits from the rigor of motion planning to avoid collisions and to constraint the path. We proposed physics-inspired constraints to increase the plausibility of motions, such as slipping avoidance, velocity limitation and contact maintaining. The thesis works have been implemented in the software ‘Humanoid Path Planner’ and the graphical renderings have been done with Blender.

Mots-Clés / Keywords
Motion planning; Computer animation; Ballistic motion; Path optimization; Simulation; Planification de mouvement; Animation graphique; Mouvement ballistique; Optimisation de chemin;

140133
17150
12/04/2017

Robotics-inspired methods to enhance protein design

L.DENARIE

RIS

Doctorat : INP de Toulouse, 12 Avril 2017, 142p., Président: R.ALAMI, Rapporteurs: C.ROBERT, M.VENDITELLI, Examinateurs: S.REDON, Directeurs de thèse: T.SIMEON, J.CORTES , N° 17150

Lien : https://hal.laas.fr/tel-01591457

Diffusable

Plus d'informations

Résumé

La conception de protéines ayant des propriétés spécifiques représente un enjeux majeur pour la pharmacologie et les bio-technologies. Malgré les progrès des méthodes de CAO développées pour la conception de protéines, une limitation majeure des techniques existantes vient de la difficulté à prendre en compte la mobilité du squelette protéique, afin de mieux capturer l’ensemble des propriétés des protéines candidates et garantir la bonne stabilité de la protéine choisie dans la conformation voulue. De plus, si des méthodes de conception multi-états ont été proposées, elles ne permettent pas de garantir l’existence d’une trajectoire réaliste entre ces états. De ce fait, la conception de protéines devant permettre la transition entre plusieurs états reste un problème hors de la portée des méthodes actuelles. Cette thèse explore comment des algorithmes inspirés de la robotique peuvent être utilisés pour explorer l’espace conformationnel de manière efficace afin d’améliorer les méthodes de conception de protéines en prenant en compte de manière plus poussée la flexibilité de leur squelette. Ce travail pose également un premier jalon vers une méthode de conception adaptée à la réalisation d’un mouvement de la protéine.

Abstract

The ability to design proteins with specific properties would yield great progress in pharmacology and bio-technologies. Methods to design proteins have been developed since a few decades and some relevant achievements have been made including de novo protein design. Yet, current approaches suffer some serious limitations. By not taking protein’s backbone motions into account, they fail at capturing some of the properties of the candidate design and cannot guarantee that the solution will in fact be stable for the goal conformation. Besides, although multi-states design methods have been proposed, they do not guarantee that a feasible trajectory between those states exists, which means that design problem involving state transitions are out of reach of the current methods. This thesis investigates how robotics-inspired algorithms can be used to efficiently explore the conformational landscape of a protein aiming to enhance protein design methods by introducing additional backbone flexibility. This work also provides first milestones towards protein motion design.

Mots-Clés / Keywords
Path planning; Protein design; Structural biology; Robotics; Sampling based algorithms; Computational biology;

140135
17101
20/03/2017

Représenter pour suivre : Exploitation de représentations parcimonieuses pour le suivi multi-objets

L.FAGOT-BOUQUET

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 20 Mars 2017, 196p., Président: A.CAPLIER, Rapporteurs: V.LEPETIT, A.CAVALLARO, Examinateurs: A.CAPLIER, Directeurs de thèse: F.LERASLE, R.AUDIGIER, Membre invité: Y.DHOME , N° 17101

Lien : https://hal.laas.fr/tel-01516921

Diffusable

Plus d'informations

Abstract

Visual object tracking is a subject of significant relevance in Computer Vision and its practical applications are numerous and exploited in various areas. For example, it is used in videosurveillance domain or by self-driving car technologies that require a full understanding of the vehicle surroundings. Multiple Object Tracking based on the tracking-by-detection paradigm has widely benefited from the recent developments in object detection. However, object detectors sometimes give erroneous responses, like missed detections, false positives, or imprecise detections. Maintaining target identities and handling occlusions are some other issues more specific to Multiple Object Tracking, which remains a challenging problem. Many recent approaches have exploited complex appearance models to distinguish more efficiently the targets and gain in robustness. In this thesis, we have followed the same idea by considering appearance models based on sparse representations that have been widely used in Single Object Tracking. We focus on people tracking since most practical applications are dealing with this object category. The first contribution of this thesis consists in designing an online, meaning frame by frame, tracking approach that takes advantage of collaborative sparse representations to define the affinity values between the estimated trajectories and the last detections. Furthermore, different possible descriptions of the targets, either holistic or local ones, have been considered. Contrary to offline approaches that consider several frames, online approaches are not able to correct possible association errors like identity switches or track fragmentations. Therefore, we proposed for our second contribution to develop a tracking system with a sliding window, based on a MCMCDA approach, able to correct association errors by exploiting sparse representations well-suited for this specific framework. Since the dictionaries used are composed solely of detections, the quality of the representations based on these dictionaries is highly dependent on the performance of the object detector. In order to rely less on the detector quality, we consider for the last contribution of this thesis to use dense dictionaries that are taking into account all possible locations of a target inside each frame. Many quantitative evaluations were performed using usual and public datasets, notably those of the MOTChallenge, in order to provide a consistent comparison with other recent approaches. These evaluations show the gain in performances of our proposed contributions and demonstrate the relevance of the choices that had been made.

Résumé

Le suivi visuel d’objets est un sujet d’importance en Vision par Ordinateur dont les applications pratiques sont multiples et exploitées dans des domaines assez diversifiés. On peut citer en particulier les problématiques de vidéo-surveillance ou encore celles liées aux voitures autonomes pour lesquelles il est crucial d’analyser correctement l’environnement. Cette thèse se focalise sur le problème de suivi multi-objets en considérant plus spécifiquement le suivi de personnes multiples, cette catégorie d’objets étant l’une des plus fréquentes dans les applications déployées en pratique. Le suivi multi-objets, en utilisant le paradigme de suivi par détection, a grandement profité des avancées récentes en détection d’objets. Néanmoins, le suivi multiobjets présente encore plusieurs problèmes spécifiques et reste ainsi une problématique difficile en Vision par Ordinateur. Les détecteurs donnent occasionnellement des réponses erronées, principalement des objets non détectés ou des fausses détections, face auxquelles un algorithme de suivi doit être le plus robuste possible. Pour aboutir à des systèmes plus robustes, de nombreuses approches récentes cherchent à exploiter des modèles d’apparence spécifiques afin de mieux différencier les cibles. Cette même approche a été suivie pour cette thèse, en nous inspirant de méthodes de suivi mono-objet à base de représentations parcimonieuses. Bien que l’emploi de telles représentations se soit révélé efficace dans plusieurs domaines en Vision par Ordinateur, cet outil restait peu utilisé pour le suivi multi-objets. La première contribution présentée dans ce manuscrit consiste à employer des représentations parcimonieuses collaboratives dans un système de suivi en ligne, image après image, pour définir les affinités en apparence entre les trajectoires estimées et les dernières détections. Des considérations sur les descriptions possibles des cibles, holistiques ou locales, ont de plus été examinées. Les approches en ligne ne peuvent cependant remettre en cause les choix d’appariement effectués à chaque image contrairement à des méthodes considérant simultanément plusieurs images consécutives. Notre seconde contribution a alors été de proposer une méthode de suivi à fenêtre glissante, ou multi-images, permettant de corriger d’éventuelles erreurs d’appariement en exploitant des représentations parcimonieuses adaptées à ce cadre spécifique. La dernière contribution développée dans ce manuscrit envisage l’emploi de dictionnaires denses pour définir les représentations parcimonieuses. Des dictionnaires denses, prenant en considération toutes les positions possibles dans une image, permettent de moins dépendre de la qualité du détecteur d’objets comparés à des dictionnaires définis à partir de détections. De nombreuses évaluations quantitatives ont été réalisées sur des base de données publiques usuelles afin de permettre une comparaison avec d’autres approches récentes. Ces évaluations attestent des gains en performances des contributions proposées et valident ainsi les choix effectués.

Mots-Clés / Keywords
Suivi multi-objets; Suivi par détection; Représentations parcimonieuses; Multi-object tracking; Tracking by detection; Sparse representations;

139555
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/