Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

49documents trouvés

16479
22/12/2016

Design, modeling and control of inherently compliant actuators with a special consideration on agonist-antagonist anthropomorphic configuration

G.HARI SHANKAR LAL DAS

GEPETTO

Doctorat : 22 Décembre 2016, 140p., Président: P.FRAISSE, Rapporteurs: Y.AOUSTIN, B.VANDERBORGHT, Examinateurs: , Directeurs de thèse: B.TONDU, P.SOUERES, membre invité: O.STASSE , N° 16479

Diffusable

Plus d'informations

Abstract

Design, modeling and control of inherently compliant actuators with a special consideration on agonist- antagonist anthropomorphic configuration" The research aims at the design, modeling and control of inherently compliant actuators for anthropomorphic systems. The first part of the work focuses on the study of various existing designs and look for the possibility of alternative actuators other than the conventional electric motors. Special attention is given to elctroactive polymer based soft actuators which have good potential in future robotic applications. In parallel, a model of the actuator dynamics and the model-based controller (MPC and optimal control) have been synthesized for an anthropomorphic 7 Dofs arm actuated by antagonist-agonist pair of Pneumatic Artificial Muscles (PAMs) at each joint. Such model and controller is then integrated within the software environment developed by the team. Using the PAMs based anthropomorphic manipulator arm and the numerical simulator, tests are done in order to evaluate the potential of this actuator and compare with the human body capabilities.

Mots-Clés / Keywords
Pneumatic systems; Mckibben muscles; iLQR control; Nonlinear control; Agonist-antagonist actuation; Bio-inspired robots; Anthropomorphic systems;

138579
16504
02/12/2016

Co-design of architectures and algorithms for mobile robot localization and model-based detection of obstacles

D.TORTEI

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 2 Décembre 2016, 137p., Président: B.BOROVAC, Rapporteurs: M.AKIL, Examinateurs: J.PIAT, D.OBRADOVIC, Directeurs de thèse: M.DEVY, M.RAKOVIC , N° 16504

Diffusable

Plus d'informations

Résumé

Un véhicule autonome ou un robot mobile est équipé d’un système de navigation qui doit comporter plusieurs briques fonctionnelles pour traiter de perception, localisation, planification de trajectoires et locomotion. Dès que ce robot ou ce véhicule se déplace dans un environnement humain dense, il exécute en boucle et en temps réel plusieurs fonctions pour envoyer des consignes aux moteurs, pour calculer sa position vis-à-vis d’un repère de référence connu, et pour détecter de potentiels obstacles sur sa trajectoire; du fait de la richesse sémantique des images et du faible coût des caméras, ces fonctions exploitent souvent la vision. Les systèmes embarqués sur ces machines doivent alors intégrer des cartes assez puissantes pour traiter des données visuelles en temps réel. Par ailleurs, les contraintes d’autonomie de ces plateformes imposent de très faibles consommations énergétiques. Cette thèse proposent des architectures de type SOPC (System on Programmable Chip) con¸cues par une méthodologie de co-design matériel/logiciel pour exécuter de manière efficace les fonctions de localisation et de détection des obstacles à partir de la vision. Les résultats obtenus sont équivalents ou meilleurs que l’état de l’art, concernant la gestion de la carte locale d’amers pour l’odométrie-visuelle par une approche EKF-SLAM, et le rapport vitesse d’exécution sur précision pour ce qui est de la détection d’obstacles par identification dans les images d’objets (piétons, voitures...) sur la base de modèles appris au préalable.

Abstract

An autonomous mobile platform is endowed with a navigational system which must contain multiple functional bricks: perception, localization, path planning and motion control. As soon as such a robot or vehicle moves in a crowded environment, it continously loops several tasks in real time: sending reference values to motors’ actuators, calculating its position in respect to a known reference frame and detection of potential obstacles on its path. Thanks to semantic richness provided by images and to low cost of visual sensors, these tasks often exploit visual cues. Other embedded systems running on these mobile platforms thus demand for an additional integration of high-speed embeddable processing systems capable of treating abundant visual sensorial input in real-time. Moreover, constraints influencing the autonomy of the mobile platform impose low power consumption. This thesis proposes SOPC (System on a Programmable Chip) architectures for efficient embedding of vison-based localization and obstacle detection tasks in a navigational pipeline by making use of the software/hardware co-design methodology. The obtained results are equivalent or better in comparison to state-of-the-art for both EKF-SLAM based visual odometry: regarding the local map size management containing seven-dimensional landmarks and model-based detection-by-identification obstacle detection: algorithmic precision over execution speed metric.

138833
16444
02/12/2016

Temporal and hierarchical models for planning and acting in robotics

A.BIT-MONNOT

RIS

Doctorat : INP de Toulouse, 2 Décembre 2016, 199p., Président: R.ALAMI, Rapporteurs: J.HERTZBERG, F.PECORA, Examinateurs: A.CESTA, C.PRALET, D.E.SMITH, Directeurs de thèse: M.GHALLAB, F.INGRAND , N° 16444

Lien : https://hal.laas.fr/tel-01444926

Diffusable

Plus d'informations

Abstract

The field of AI planning has seen rapid progress over the last decade and planners are now able to find plans with hundreds of actions in a matter of seconds. Despite those important progresses, robotic systems still tend to have a reactive architecture with very little deliberation on the course of the plan they might follow. In this thesis, we argue that a successful integration with a robotic system requires the planner to have capacities for both temporal and hierarchical reasoning. The former is indeed a universal resource central in many robot activities while the latter is a critical component for the integration of reasoning capabilities at different abstraction levels, typically starting with a high level view of an activity that is iteratively refined down to motion primitives. As a first step to carry out this vision, we present a model for temporal planning unifying the generative and hierarchical approaches. At the center of the model are temporal action templates complemented with a specification of the initial state as well as the expected evolution of the environment over time. In addition, our model allows for the specification of hierarchical knowledge possibly with a partial coverage. Consequently, our model generalizes the existing generative and hierarchical approaches together with an explicit time representation. In the subsequent chapter, we introduce a planning procedure suitable for our planning model. In order to support hierarchical features, we extend the existing Partial-Order Causal Link approach used in many constraint-based planners, with the notions of task and decomposition. We implement it in FAPE (Flexible Acting and Planning Environment) together with automated problem analysis techniques used for search guidance. We show FAPE to have performance similar to state of the art temporal planners when used in a generative setting, and the addition of hierarchical information to lead to further performance gain. Next, we study the usual methods used to reason on temporal uncertainty while planning. We relax the usual assumption of total observability and instead provide techniques to reason on the observations needed to maintain a plan dispatchable. We show how such needed observations can be detected at planning time and incrementally dealt with by considering the appropriate sensing actions. In a final chapter, we discuss the place of the proposed planning system as a central component for the control of a robotic actor. We demonstrate how the explicit time representation facilitates plan monitoring and action dispatching when dealing with contingent events that require observation. We take advantage of the constraint-based and hierarchical representation to facilitate both plan-repair procedures as well opportunistic plan refinement at acting time.

138414
16328
04/10/2016

Using human-inspired model for guiding robot locomotion

C.VASSALLO

GEPETTO

Doctorat : Université de Toulouse III - Paul Sabatier, 4 Octobre 2016, 139p., Président: P.FRAISSE, Rapporteur: F.NORI, , Examinateur: J.PETTRE, Directeurs de thèse: P.SOUERES, O.STASSE , N° 16328

Lien : https://hal.laas.fr/tel-01393217

Diffusable

Plus d'informations

Résumé

Cette thèse a été effectuée dans le cadre du projet européen Koroibot dont l’objectif est le développement d’algorithmes de marche avancés pour les robots humanoïdes. Dans le but de contrôler les robots d’une manière sûre et efficace chez les humains, il est nécessaire de comprendre les règles, les principes et les stratégies de l’ homme lors de la locomotion et de les transférer à des robots. L’objectif de cette thèse est d’étudier et d’identifier les stratégies de locomotion humaine et créer des algorithmes qui pourraient être utilisés pour améliorer les capacités du robot. La contribution principale est l’analyse sur les principes de piétons qui guident les stratégies d’évitement des collisions. En particulier, nous observons comment les humains adapter une tâche de locomotion objectif direct quand ils ont à interférer avec un obstacle en mouvement traversant leur chemin. Nous montrons les différences entre la stratégie définie par les humains pour éviter un obstacle non-collaboratif et le stratégie pour éviter un autre être humain, et la façon dont les humains interagissent avec un objet si se déplaçant en manier simil à l’humaine. Deuxièmement, nous présentons un travail effectué en collaboration avec les neuroscientifiques de calcul. Nous proposons une nouvelle approche pour synthétiser réalistes complexes mouvements du robot humanoïde avec des primitives de mouvement. Trajectoires humaines walking-to-grasp ont été enregistrés. L’ensemble des mouvements du corps sont reciblées et proportionnée afin de correspondre à la cinématique de robots humanoïdes. Sur la base de cette base de données des mouvements, nous extrayons les primitives de mouvement. Nous montrons que ces signaux sources peuvent être exprimées sous forme de solutions stables d’un système dynamique autonome, qui peut être considéré comme un système de central pattern generators (CPGs). Sur la base de cette approche, les stratégies réactives walking-to-grasp ont été développés et expérimenté avec succès sur le robot humanoïde HRP-2 au LAAS-CNRS. Dans la troisième partie de la thèse, nous présentons une nouvelle approche du problème de pilotage d’un robot soumis à des contraintes non holonomes par une porte en utilisant l’asservissement visuel. La porte est représentée par deux points de repère situés sur ses supports verticaux. La plan géométric qui a été construit autour de la porte est constituée de faisceaux de hyperboles, des ellipses et des cercles orthogonaux. Nous montrons que cette géométrie peut être mesurée directement dans le plan d’image de la caméra et que la stratégie basée sur la vision présentée peut également être lié à l’homme. Simulation et expériences réalistes sont présentés pour montrer l’efficacité de nos solutions.

Abstract

This thesis has been done within the framework of the European Project Koroibot which aims at developing advanced algorithms to improve the humanoid robots locomotion. It is organized in three parts. With the aim of steering robots in a safe and efficient manner among humans it is required to understand the rules, principles and strategies of human during locomotion and transfer them to robots. The goal of this thesis is to investigate and identify the human locomotion strategies and create algorithms that could be used to improve robot capabilities. A first contribution is the analysis on pedestrian principles which guide collision avoidance strategies. In particular, we observe how humans adapt a goal-direct locomotion task when they have to interfere with a moving obstacle crossing their way. We show differences both in the strategy set by humans to avoid a non-collaborative obstacle with respect to avoid another human, and the way humans interact with an object moving in human-like way. Secondly, we present a work done in collaboration with computational neuroscientists. We propose a new approach to synthetize realistic complex humanoid robot movements with motion primitives. Human walking-to-grasp trajectories have been recorded. The whole body movements are retargeted and scaled in order to match the humanoid robot kinematics. Based on this database of movements, we extract the motion primitives. We prove that these sources signals can be expressed as stable solutions of an autonomous dynamical system, which can be regarded as a system of coupled central pattern generators (CPGs). Based on this approach, reactive walking-to-grasp strategies have been developed and successfully experimented on the humanoid robot HRP at LAAS-CNRS. In the third part of the thesis, we present a new approach to the problem of vision-based steering of robot subject to non-holonomic constrained to pass through a door. The door is represented by two landmarks located on its vertical supports. The planar geometry that has been built around the door consists of bundles of hyperbolae, ellipses, and orthogonal circles. We prove that this geometry can be directly measured in the camera image plane and that the proposed vision-based control strategy can also be related to human. Realistic simulation and experiments are reported to show the effectiveness of our solutions.

Mots-Clés / Keywords
Human-inspired models; Robot locomotion; Human-robot interaction; Motion capture system; Modèles inspirés de l’humain; Locomotion des robots; Interaction homme-robot; Robots humanoïdes; Système de capture de mouvement;

137753
16324
28/09/2016

Stratégies de marche avancées et inspirées de l'être humain pour les robots humanoïdes

M.NAVEAU

GEPETTO

Doctorat : Université de Toulouse III - Paul Sabatier, 28 Septembre 2016, Président: F.LAMIRAUX, Rapporteurs: C.CHEVALLEREAU, C.OTT, Examinateurs: P.B.WIEBER, Directeurs de thèse: O.STASSE , N° 16324

Diffusable

Plus d'informations

Résumé

Cette thèse traite du problème de la locomotion des robots humanoïdes dans le contexte du projet européen KoroiBot. En s’inspirant de l’être humain, l’objectif de ce projet est l’amélioration des capacités des robots humanoïdes à se mouvoir de façon dynamique et polyvalente. Le coeur de l’approche scientifique repose sur l’utilisation du controle optimal, à la fois pour l’identification des couts optimisés par l’être humain et pour leur mise en oeuvre sur les robots des partenaires roboticiens. Cette thèse s’illustre donc par une collaboration à la fois avec des mathématiciens du contrôle et des spécialistes de la modélisation des primitives motrices. Les contributions majeures de cette thèse reposent donc sur la conception de nouveaux algorithmes temps-réel de contrôle pour la locomotion des robots humanoïdes avec nos collégues de l’université d’Heidelberg et leur intégration sur le robot HRP-2. Deux contrôleurs seront présentés, le premier permettant la locomotion multi-contacts avec une connaissance a priori des futures positions des contacts. Le deuxième étant une extension d’un travail réalisé sur de la marche sur sol plat améliorant les performances et ajoutant des fonctionnalitées au précédent algorithme. En collaborant avec des spécialistes du mouvement humain nous avons implementé un contrôleur innovant permettant de suivre des trajectoires cycliques du centre de masse. Nous présenterons aussi un contrôleur corps-complet utilisant, pour le haut du corps, des primitives de mouvements extraites du mouvement humain et pour le bas du corps, un générateur de marche. Les résultats de cette thèse ont été intégrés dans la suite logicielle "Stack-of-Tasks" du LAAS-CNRS.

Mots-Clés / Keywords
Contrôle; Contrôle de marche; Robot; Robot humanoïde; Walking;

137735
16471
08/09/2016

Symbolic and geometric planning for teams of robots and humans

R.LALLEMENT

RIS

Doctorat : INSA de Toulouse, 8 Septembre 2016, 145p., Président: M.GHALLAB, Rapporteurs: F.CHARPILLET, A.SAFFIOTTI, Examinateurs: I.MAZZA, Directeurs de thèse: R.ALAMI , N° 16471

Diffusable

Plus d'informations

Abstract

Hierarchical Task Network (HTN) planning is a popular approach to build task plans to control intelligent systems. It is used in a variety of fields such as robotics, mission control, and so on. Its popularity comes from the intuitive representation that it uses, furthermore the planner uses that representation to cut down the search space (compared to classical planning approaches). In robotics, the domain representation consists in specifying high-level instructions on how robots and agents should perform tasks, while also giving the planner enough flexibility to choose the lower-level steps and their ordering. This thesis presents the HATP (Hierarchical Agent-based Task Planner) planning framework which extends the traditional HTN planning domain representation and semantics by making them more suitable for roboticists, and by offering human-awareness capabilities. This planning framework can be seen as a planning laboratory thanks to the ease to develop new domains and the possibility to extend its capabilities. When computing human-aware robot plans, it appears that the problems are very complex and highly intricate. To deal with this complexity we have integrated a geometric planner to reason about the actual impact of actions on the environment and allow to take into account the affordances (reachability, visibility). To benefit from this geometric layer, the symbolic layer refines the actions in the current plan it is computing by assessing their geometric feasibility in the current world state. In addition the geometric layer computes and sends back symbolic literals representing the effective outcome on the environment of the particular instance of actions chosen by the geometric planner. The symbolic layer can use these literals to reason about the side effects of the actions which allows to partially tackle the ramification problem. This thesis presents in detail this integration between two heterogeneous planning layers and explores how they can be combined to solve new classes of robotic planning problems. One of the main issues we face when combining the two layers is the planning time that grows rapidly and prevents any significantly-big problem to be solved in reasonable time. We study and propose in this thesis an improvement to the backtrack mechanism to drive the symbolic search toward more promising solutions using a combination of symbolic and geometric information.

Résumé

La planification HTN (Hierarchical Task Network, ou Réseau Hiérarchique de Tâches) est une approche très souvent utilisée pour produire des séquences de tâches servant à contrôler des systèmes intelligents. Cette méthode est employée dans différents domaines parmi lesquels la robotique, le contrôle de missions, etc. La reconnaissance dont elle bénéficie vient de la façon intuitive qu’elle a de représenter les problèmes. De plus elle adopte cette description pour accélérer la recherche (par rapport à la planification dite classique). Encoder un domaine robotique consiste à spécifier des instructions de haut-niveau décrivant comment les robots et les agents doivent accomplir leurs tâches tout en assurant assez de flexibilité au planificateur pour lui permettre de choisir l’ordre des étapes de bas-niveau. Cette thèse présente le planificateur HATP (Hierarchical Agent-base Task Planner, ou Planificateur Hiérarchique centré Agent) qui étend la planification HTN classique en enrichissant la représentation des domaines et leur sémantique afin d’être plus adaptées à la robotique, tout en offrant aussi une prise en compte des humains. HATP peut être vu comme un laboratoire de planification de par sa capacité à être amélioré et la facilité à ajouter de nouveaux domaines. Quand on souhaite générer un plan pour des robots tout en prenant en compte les humains, il apparaît que les problèmes sont complexes et fortement interdépendants. Afin de faire face à cette complexité, nous avons intégré à HATP un planificateur géométrique apte à déduire l’effet réel des actions sur l’environnement et ainsi permettre de considérer la visibilité et l’accessibilité des éléments. Pour exploiter cette couche géométrique, la couche symbolique affine les actions du plan lors du calcul en en vérifiant la faisabilité dans l’état courant du monde. En outre la couche géométrique produit et renvoie des littéraux décrivant le résultat effectif d’une action particulière (instanciée) sur l’environnement quand celle-ci à été choisie par le planificateur géométrique. La couche symbolique peut alors faire face à une partie du problème de la ramification en s’appuyant sur ces littéraux qui incluent notamment les effets de bords des actions. Cette thèse se concentre sur l’intégration de ces deux planificateurs de nature différente et étudie comment par leur combinaison ils permettent de résoudre de nouvelles classes de problèmes de planification pour la robotique. Une des difficultés majeures de cette combinaison de couches vient du temps de calcul qui croît trop rapidement empêchant de fait la résolution de problèmes conséquents en un temps raisonnable. Nous étudions puis proposons un certain nombre d’améliorations au mécanisme dit de backtrack (ce qui signifie de revenir sur les choix faits plus tôt dans le calcul d’un plan) afin de mieux diriger la recherche vers des solutions plus prometteuses, le tout en utilisant des informations aussi bien symboliques que géométriques.

138515
16052
28/01/2016

Unsupervised Gaussian mixture models for the classification of outdoor environments using 3D terrestrial lidar data

A.O.MALIGO

RIS

Doctorat : INSA de Toulouse, 28 Janvier 2016, N°73, Président: M.DEVY, Rapporteurs: O.AYCARD, P.CHECCHIN, Directeurs de thèse: S.LACROIX , N° 16052

Lien : https://tel.archives-ouvertes.fr/tel-01297542

Diffusable

Plus d'informations

Abstract

The processing of 3D lidar point clouds enable terrestrial autonomous mobile robots to build semantic models of the outdoor environments in which they operate. Such models are interesting because they encode qualitative information, and thus provide to a robot the ability to reason at a higher level of abstraction. At the core of a semantic modelling system, lies the capacity to classify the sensor observations. We propose a two-layer classi- fication model which strongly relies on unsupervised learning. The first, intermediary layer consists of a Gaussian mixture model. This model is determined in a training step in an unsupervised manner, and defines a set of intermediary classes which is a fine-partitioned representation of the environment. The second, final layer consists of a grouping of the intermediary classes into final classes that are interpretable in a considered target task. This grouping is determined by an expert during the training step, in a process which is supervised, yet guided by the intermediary classes. The evaluation is done for two datasets acquired with different lidars and possessing different characteristics. It is done quantitatively using one of the datasets, and qualitatively using another. The system is designed following the standard learning procedure, based on a training, a validation and a test steps. The operation follows a standard classification pipeline. The system is simple, with no requirement of pre-processing or post-processing stages.

136347
16095
25/01/2016

Segmentation automatique d’images sur des critères géométriques, application à l’inspection visuelle de produits agroalimentaires

P.DUBOSCLARD

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 25 Janvier 2016, 149p., Président: F.LERASLE, Rapporteurs: X.DESCOMBES, T.FOURNEL, Examinateurs: D.FOFI, Directeurs de thèse: M.DEVY, A.HERBULOT , N° 16095

Non diffusable

Plus d'informations

Résumé

À l’échelle mondiale, la récolte de céréales atteint plusieurs milliards de tonnes chaque année. Les producteurs céréaliers échangent leurs récoltes selon un prix déterminé par la qualité de leur production. Cette évaluation, appelée agréage, est réalisée pour chaque lot sur un échantillon jugé représentatif. La difficulté au cours de cette évaluation est de parvenir à parfaitement caractériser l’échantillon. Il faut pour cela qualifier chacun de ses éléments, en d’autres termes, il est nécessaire d’évaluer chaque grain de céréale de manière individuelle. Cette opération est historiquement réalisée par un opérateur qui isole chaque grain manuellement pour l’inspecter et l’évaluer. Ce procédé est exposé à différents problèmes : d’une part les résultats obtenus par un opérateur ne sont pas parfaitement répétables : son état de fatigue visuelle peut influencer son appréciation; d’autre part l’évaluation dépend de l’opérateur : elle n’est pas reproductible, les résultats peuvent varier d’un opérateur à l’autre. Cette thèse a donc pour but de mettre au point un système capable de réaliser cette inspection visuelle. Le système d’acquisition est présenté dans un premier temps. Cette enceinte contient les dispositifs d’éclairage et d’acquisition d’images. Différents outils ont été mis en œuvre pour s’assurer de la justesse et de la stabilité des acquisitions. Une méthode d’apprentissage de modèles de forme est ensuite présentée : elle a pour but de définir et de modéliser le type de forme des grains de l’application considérée (blé, riz, orge). Cette étape est réalisée sur une image d’objets isolés. Deux méthodes de détection sont ensuite présentées : une approche déterministe et une approche probabiliste. Ces deux méthodes, mises au point pour segmenter les objets d’une image, utilisent des outils communs bien qu’elles soient conçues différemment. Les résultats obtenus et présentés dans cette thèse démontrent la capacité du système automatique à se positionner comme une solution fiable à la problématique d’inspection visuelle de grains de céréales

Abstract

In agriculture, the global grain harvest reached several billion tons each year. Cereal producers exchange their crops at a price determined by the quality of their production. This assessment, called grading, is performed for each set on a representative sample. The difficulty of this assessment is to fully characterize the sample. To do so, it is necessary to qualify each of its elements. In other words, it is necessary to evaluate each individual cereal grain. Historically, this has been performed manually by an operator who isolates each evaluated grain. This method is exposed to various problems : firstly, results obtained by an operator are not perfectly repeatable. For example, eyestrain can influence the assessment. On the other hand the evaluation depends on the operator : it is not reproducible. The results can vary from one operator to another. The aim of this thesis is to develop a system that can handle this visual inspection. In a first time, the acquisition system is introduced. Image acquisition and lighting parts are placed in a cabin. Several methods have been introduced to manage accuracy and stability of the acquisitions. Then, a shape model learning is detailed : this step, based on an image with manually separated objects, defines and modelizes shape of the considered cereal grains (wheat, rice, barley). Two detection approaches are then introduced : a deterministic method and a probabilistic one. Both are based on the same tools to process the objects segmentation of an image, but they deal with the question in a different way. The results provided by the system and presented in this thesis emphasize the ability of this automatic system to process the visual inspection of food products.

Mots-Clés / Keywords
Inspection; Méthodes probabilistes; Segmentation; Traitement d'image;

136532
15651
17/12/2015

Asservissement visuel coordonné de deux bras manipulateurs

R.FLEURMOND

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 17 Décembre 2015, 135p., Président: P.DANES, Rapporteurs: Y.MEZOUAR, P.FRAISSE, Examinateurs: N.A.AREXOLALEIBA, Directeurs de thèse: V.CADENAT, D.SIDOBRE , N° 15651

Lien : https://tel.archives-ouvertes.fr/tel-01280180

Diffusable

Plus d'informations

Abstract

We address the problem of coordinating a dual arm robot using one or several cameras. After proposing an overview of the control techniques dedicated to this problem, we develop a formalism allowing to coordinate the motions of several arms thanks to multicameras image based visual servoing. Our approach allows to benefit from the natural redundancy provided by the robotic system to take into account useful constraints such as joint limits and occlusions avoidance. We propose a strategy to deal with these tasks simultaneously. Finally, to make our control more robust with respect to image losses, we reconstruct the structure of the manipulated objects and the corresponding visual features. To validate our approach, we use the formalism to make the dual arm PR2 robot recap a pen. Simulations and experimental results are provided.

Résumé

Nous nous intéressons ici au problème de la coordination de plusieurs bras manipulateurs au moyen de la vision. Après avoir étudié les approches de commande dédiées à ce problème, notre première contribution a consisté à établir un formalisme basé sur l’asservissement visuel 2D. Ce formalisme permet de bénéficier des images fournies par une ou plusieurs caméras, embarquées ou déportées, pour coordonner les mouvements d’un système robotique multi-bras. Il permet de plus d’exploiter la redondance de ce type de système pour prendre en compte des contraintes supplémentaires. Nous avons ainsi développé une stratégie de commande pour réaliser une tâche de manipulation coordonnée tout en évitant les butées articulaires et la perte des indices visuels. Afin d’aller plus loin et de tolérer les occultations, nous avons proposé des approches permettant de reconstruire la structure des objets manipulés et donc les indices visuels qui les caractérisent. Enfin, nous avons validé nos travaux en simulation et expérimentalement sur le robot PR2.

Mots-Clés / Keywords
Asservissement visuel; Coordination; Coopération; Bras manipulateurs; Robot à deux bras; Redondance; Occultation; Structure from motion;

136154
15678
03/12/2015

Perception multimodale de l’homme pour l’interaction Homme-Robot

C.MOLLARET

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 3 Décembre 2015, 129p., Président: L.BESACIER, Rapporteurs: M.CHETOUANI, E.COLLE, Examinateurs: J.PINQUIER, Directeurs de thèse: F.LERASLE, I.FERRANE , N° 15678

Lien : https://tel.archives-ouvertes.fr/tel-01291838

Diffusable

Plus d'informations

Résumé

Cette thèse porte sur la perception multimodale de l'homme pour l'Interaction Homme-Robot (IHR). Elle a été financée par le projet ANR Contint RIDDLE (2012 - 2015). Ce projet est centré sur le développement d'un robot d'assistance pour les personnes âgées atteintes de troubles cognitifs légers. Celui-ci a pour but de répondre à un besoin grandissant d'aide à domicile envers les personnes âgées vivant seules. En effet, la population vieillissant de plus en plus, on estime qu'environ 33% des français auront plus de 60 ans en 2060. L'enjeu est donc de programmer un robot interactif (via ses capacités perceptuelles) capable d'apprendre la relation entre l'usager et un sousensemble d'objets du quotidien de ce dernier, soit des objets pertinents, présents ou possiblement égarés dans l'espace partagé du robot et de l'usager. Dans ce cadre, il reste de nombreux verrous à lever, notamment en termes de : (i) perception conjointe de l'homme et de son environnement, (ii) d'intégration sur un système robotisé, (iii) de validation par des scénarii mettant en jeu le robot et une personne âgée en interaction avec quelques objets usuels. La finalité du projet est de voir le robot répondre aux interrogations relatives à une dizaine d'objets courants (définis par une étude préliminaire sur une population qui se plaint de troubles cognitifs) par des actions appropriées. Par exemple, le robot signalera l'emplacement d'un objet en se déplaçant vers lui, en le saisissant ou en donnant des indications orales quant à sa position si l'objet n'est pas atteignable. Le projet RIDDLE est multipartenaire : il regroupe la société Magellium, le Gérontopôle de Toulouse, l'équipe MINC du LAAS-CNRS et l'entreprise Aldebaran Robotics dont le robot doit servir de plateforme pour les démonstrations finales. Cette thèse a été co-encadrée par Frédéric Lerasle et Isabelle Ferran é respectivement enseignants-chercheurs dans les équipes RAP du LAAS-CNRS et SAMoVA de l'IRIT-UPS. Lors de ce projet, nous avons, en partenariat avec le gérontopôle, défini un scénario robotique regroupant trois phases principales. Une phase de monitoring où le robot se trouve loin de l'utilisateur et l'observe de sa position, en attente d'une demande d'interaction, une phase d'interaction proximale où le robot se trouve proche de l'utilisateur et interagit avec lui, et enfin la transition qui permet au robot de passer d'une phase à l'autre. Ce scénario est donc construit de manière à créer un robot d'interaction proactif mais non-intrusif. Le caractère non-intrusif est matérialisé par la phase de monitoring. La proactivité est, quant à elle, matérialisée par la création d'un détecteur d'intentionnalit é permettant au robot de comprendre de manière non-verbale la volonté de l'utilisateur de communiquer avec lui. Les contributions scientifiques de cette thèse recoupent divers aspects du projet : le scénario robotique, le détecteur d'intentionnalité, une technique de filtrage par essaim de particules, et enfin une technique bayésienne d'amélioration du taux d'erreur de mot à partir d'informations de distance. Cette thèse est divisée en quatre chapitres. Le premier traite du détecteur d'intentionnalité, le deuxième de la technique de filtrage développée, le troisième de la phase d'interaction proximale et des techniques employées, et enfin le dernier chapitre est centré sur les implémentations robotiques.

136342
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/