Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes

Publications de l'équipe RAP

Choisir la langue : FR | EN

359documents trouvés

17138
26/07/2017

Design of a sensor-based controller performing u-turn to navigate in orchards

A.DURAND PETITEVILLE, E.LE FLECHER, V.CADENAT, T.SENTENAC, S.VOUGIOUKAS

Univ. of California, Davis, RAP

Manifestation avec acte : International Conference on Informatics in Control, Automation and Robotics ( ICINCO ) 2017 du 26 juillet au 28 juillet 2017, Madrid (Espagne), Juillet 2017, 10p. , N° 17138

Diffusable

140095
17136
13/07/2017

Hyper-optimization tools comparison for parameter tuning applications

C.MAURICE, J.MADRIGAL DIAZ, F.LERASLE

RAP

Rapport LAAS N°17136, Juillet 2017, 6p.

Non disponible

140092
17129
24/05/2017

Implementation on a harvesting robot of a sensor-based controller performing a u-turn

E.LE FLECHER, A.DURAND PETITEVILLE, V.CADENAT, T.SENTENAC, S.VOUGIOUKAS

RAP, Univ. of California, Davis

Manifestation avec acte : International Workshop IEEE Electronics, Control, Measurement, Signals and their application to Mechatronics ( ECMSM ) 2017 du 24 mai au 26 mai 2017, Saint Sébastien (Espagne), Mai 2017, pp.223-228 , N° 17129

Diffusable

Plus d'informations

Abstract

In this paper we investigate the navigation of a harvesting robot using sensor-based controllers in an orchard. More precisely, we focus our work on the particular u-turn maneuver which allows the mechanical system to move from the current row to the next one. By using sensor-based controllers, the control law is expressed in the sensor space, and the robot does not have to localize itself nor use a global map of the field. The navigation task can then be realized more accurately. This paper reports the implementation of two generic sensorbased controllers. These controllers allow a differential robot to follow spirals around a given point of interest. In this work, we adapt these two controllers to our specific robot (car-like system), before detailing the ROS implementation architecture. Both simulations and experimental results show the interest and the efficiency of our controllers to perform u-turns in an orchard

139877
17123
19/05/2017

Champs de tenseurs. Bases mobiles et naturelles. Torsions. Courbures

M.RENAUD

RAP

Rapport LAAS N°17123, Mai 2017, 199p.

Diffusable

139812
17101
20/03/2017

Représenter pour suivre : Exploitation de représentations parcimonieuses pour le suivi multi-objets

L.FAGOT-BOUQUET

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 20 Mars 2017, 196p., Président: A.CAPLIER, Rapporteurs: V.LEPETIT, A.CAVALLARO, Examinateurs: A.CAPLIER, Directeurs de thèse: F.LERASLE, R.AUDIGIER, Membre invité: Y.DHOME , N° 17101

Lien : https://hal.laas.fr/tel-01516921

Diffusable

Plus d'informations

Abstract

Visual object tracking is a subject of significant relevance in Computer Vision and its practical applications are numerous and exploited in various areas. For example, it is used in videosurveillance domain or by self-driving car technologies that require a full understanding of the vehicle surroundings. Multiple Object Tracking based on the tracking-by-detection paradigm has widely benefited from the recent developments in object detection. However, object detectors sometimes give erroneous responses, like missed detections, false positives, or imprecise detections. Maintaining target identities and handling occlusions are some other issues more specific to Multiple Object Tracking, which remains a challenging problem. Many recent approaches have exploited complex appearance models to distinguish more efficiently the targets and gain in robustness. In this thesis, we have followed the same idea by considering appearance models based on sparse representations that have been widely used in Single Object Tracking. We focus on people tracking since most practical applications are dealing with this object category. The first contribution of this thesis consists in designing an online, meaning frame by frame, tracking approach that takes advantage of collaborative sparse representations to define the affinity values between the estimated trajectories and the last detections. Furthermore, different possible descriptions of the targets, either holistic or local ones, have been considered. Contrary to offline approaches that consider several frames, online approaches are not able to correct possible association errors like identity switches or track fragmentations. Therefore, we proposed for our second contribution to develop a tracking system with a sliding window, based on a MCMCDA approach, able to correct association errors by exploiting sparse representations well-suited for this specific framework. Since the dictionaries used are composed solely of detections, the quality of the representations based on these dictionaries is highly dependent on the performance of the object detector. In order to rely less on the detector quality, we consider for the last contribution of this thesis to use dense dictionaries that are taking into account all possible locations of a target inside each frame. Many quantitative evaluations were performed using usual and public datasets, notably those of the MOTChallenge, in order to provide a consistent comparison with other recent approaches. These evaluations show the gain in performances of our proposed contributions and demonstrate the relevance of the choices that had been made.

Résumé

Le suivi visuel d’objets est un sujet d’importance en Vision par Ordinateur dont les applications pratiques sont multiples et exploitées dans des domaines assez diversifiés. On peut citer en particulier les problématiques de vidéo-surveillance ou encore celles liées aux voitures autonomes pour lesquelles il est crucial d’analyser correctement l’environnement. Cette thèse se focalise sur le problème de suivi multi-objets en considérant plus spécifiquement le suivi de personnes multiples, cette catégorie d’objets étant l’une des plus fréquentes dans les applications déployées en pratique. Le suivi multi-objets, en utilisant le paradigme de suivi par détection, a grandement profité des avancées récentes en détection d’objets. Néanmoins, le suivi multiobjets présente encore plusieurs problèmes spécifiques et reste ainsi une problématique difficile en Vision par Ordinateur. Les détecteurs donnent occasionnellement des réponses erronées, principalement des objets non détectés ou des fausses détections, face auxquelles un algorithme de suivi doit être le plus robuste possible. Pour aboutir à des systèmes plus robustes, de nombreuses approches récentes cherchent à exploiter des modèles d’apparence spécifiques afin de mieux différencier les cibles. Cette même approche a été suivie pour cette thèse, en nous inspirant de méthodes de suivi mono-objet à base de représentations parcimonieuses. Bien que l’emploi de telles représentations se soit révélé efficace dans plusieurs domaines en Vision par Ordinateur, cet outil restait peu utilisé pour le suivi multi-objets. La première contribution présentée dans ce manuscrit consiste à employer des représentations parcimonieuses collaboratives dans un système de suivi en ligne, image après image, pour définir les affinités en apparence entre les trajectoires estimées et les dernières détections. Des considérations sur les descriptions possibles des cibles, holistiques ou locales, ont de plus été examinées. Les approches en ligne ne peuvent cependant remettre en cause les choix d’appariement effectués à chaque image contrairement à des méthodes considérant simultanément plusieurs images consécutives. Notre seconde contribution a alors été de proposer une méthode de suivi à fenêtre glissante, ou multi-images, permettant de corriger d’éventuelles erreurs d’appariement en exploitant des représentations parcimonieuses adaptées à ce cadre spécifique. La dernière contribution développée dans ce manuscrit envisage l’emploi de dictionnaires denses pour définir les représentations parcimonieuses. Des dictionnaires denses, prenant en considération toutes les positions possibles dans une image, permettent de moins dépendre de la qualité du détecteur d’objets comparés à des dictionnaires définis à partir de détections. De nombreuses évaluations quantitatives ont été réalisées sur des base de données publiques usuelles afin de permettre une comparaison avec d’autres approches récentes. Ces évaluations attestent des gains en performances des contributions proposées et valident ainsi les choix effectués.

Mots-Clés / Keywords
Suivi multi-objets; Suivi par détection; Représentations parcimonieuses; Multi-object tracking; Tracking by detection; Sparse representations;

139555
16467
27/02/2017

Trade-off between GPGPU based implementations of multi object tracking particle filter

P.JECMEN, F.LERASLE, A.A.MEKONNEN

RAP

Manifestation avec acte : International Conference on Computer Vision Theory and Applications ( VISAPP ) 2017 du 27 février au 01 mars 2017, Porto (Portugal), Février 2017, 10p. , N° 16467

Diffusable

139712
16536
05/12/2016

Co-design Hardware/Software of Real time Vision System on FPGA for Obstacle Detection

A.ALHAMWI

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, Décembre 2016, 163p., Président: M.DEVY, Rapporteurs: H.SNOUSSI, J.DUBOIS, Examinateurs: J.F.NEZAN, B.VANDEPORTAELE, Directeurs de thèse: J.PIAT , N° 16536

Lien : https://hal.laas.fr/tel-01483746

Diffusable

Plus d'informations

Résumé

La Détection, localisation d’obstacles et la reconstruction de carte d’occupation 2D sont des fonctions de base pour un robot navigant dans un environnement intérieure lorsque l’intervention avec les objets se fait dans un environnement encombré. Les solutions fondées sur la vision artificielle et couramment utilisées comme SLAM ( Simultaneous Localization And Mapping) ou le flux optique ont tendance à être des calculs intensifs. Ces solutions nécessitent des ressources de calcul puissantes pour répondre à faible vitesse en temps réel aux contraintes. Nous présentons une architecture matérielle pour la détection, localisation d’obstacles et la reconstruction de cartes d’occupation 2D en temps réel. Le système proposé est réalisé en utilisant une architecture de vision sur FPGA (Field Programmable Gates Array) et des capteurs d’odométrie pour la détection, localisation des obstacles et la cartographie. De la fusion de ces deux sources d’information complémentaires résulte un modèle amélioré de l’environnement autour des robots. L’architecture proposé est un système à faible coût avec un temps de calcul réduit, un débit d’images élevé, et une faible consommation d’énergie.

Abstract

Obstacle detection, localization and occupancy map reconstruction are essential abilities for a mobile robot to navigate in an environment. Solutions based on passive monocular vision such as Simultaneous Localization And Mapping (SLAM) or Optical Flow (OF) require intensive computation. Systems based on these methods often rely on over-sized computation resources to meet real-time constraints. Inverse Perspective Mapping allows for obstacles detection at a low computational cost under the hypothesis of a flat ground observed during motion. It is thus possible to build an occupancy grid map by integrating obstacle detection over the course of the sensor. In this work we propose hardware/software system for obstacle detection, localization and 2D occupancy map reconstruction in real-time. The proposed system uses a FPGA-based design for vision and proprioceptive sensors for localization. Fusing this information allows for the construction of a simple environment model of the sensor surrounding. The resulting architecture is a low-cost, low-latency, high-throughput and low-power system.

Mots-Clés / Keywords
Implementation FPGA; Détection d’obstacles; Traitement d’images en temps réel; Accéleration hardware; Vision robotique;

139073
16504
02/12/2016

Co-design of architectures and algorithms for mobile robot localization and model-based detection of obstacles

D.TORTEI

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 2 Décembre 2016, 137p., Président: B.BOROVAC, Rapporteurs: M.AKIL, Examinateurs: J.PIAT, D.OBRADOVIC, Directeurs de thèse: M.DEVY, M.RAKOVIC , N° 16504

Lien : https://hal.laas.fr/tel-01477662

Diffusable

Plus d'informations

Résumé

Un véhicule autonome ou un robot mobile est équipé d’un système de navigation qui doit comporter plusieurs briques fonctionnelles pour traiter de perception, localisation, planification de trajectoires et locomotion. Dès que ce robot ou ce véhicule se déplace dans un environnement humain dense, il exécute en boucle et en temps réel plusieurs fonctions pour envoyer des consignes aux moteurs, pour calculer sa position vis-à-vis d’un repère de référence connu, et pour détecter de potentiels obstacles sur sa trajectoire; du fait de la richesse sémantique des images et du faible coût des caméras, ces fonctions exploitent souvent la vision. Les systèmes embarqués sur ces machines doivent alors intégrer des cartes assez puissantes pour traiter des données visuelles en temps réel. Par ailleurs, les contraintes d’autonomie de ces plateformes imposent de très faibles consommations énergétiques. Cette thèse proposent des architectures de type SOPC (System on Programmable Chip) con¸cues par une méthodologie de co-design matériel/logiciel pour exécuter de manière efficace les fonctions de localisation et de détection des obstacles à partir de la vision. Les résultats obtenus sont équivalents ou meilleurs que l’état de l’art, concernant la gestion de la carte locale d’amers pour l’odométrie-visuelle par une approche EKF-SLAM, et le rapport vitesse d’exécution sur précision pour ce qui est de la détection d’obstacles par identification dans les images d’objets (piétons, voitures...) sur la base de modèles appris au préalable.

Abstract

An autonomous mobile platform is endowed with a navigational system which must contain multiple functional bricks: perception, localization, path planning and motion control. As soon as such a robot or vehicle moves in a crowded environment, it continously loops several tasks in real time: sending reference values to motors’ actuators, calculating its position in respect to a known reference frame and detection of potential obstacles on its path. Thanks to semantic richness provided by images and to low cost of visual sensors, these tasks often exploit visual cues. Other embedded systems running on these mobile platforms thus demand for an additional integration of high-speed embeddable processing systems capable of treating abundant visual sensorial input in real-time. Moreover, constraints influencing the autonomy of the mobile platform impose low power consumption. This thesis proposes SOPC (System on a Programmable Chip) architectures for efficient embedding of vison-based localization and obstacle detection tasks in a navigational pipeline by making use of the software/hardware co-design methodology. The obtained results are equivalent or better in comparison to state-of-the-art for both EKF-SLAM based visual odometry: regarding the local map size management containing seven-dimensional landmarks and model-based detection-by-identification obstacle detection: algorithmic precision over execution speed metric.

138833
16585
25/11/2016

Application d’une méthodologie de co-design à la définition et à l’implémentation d’une chaîne SLAM opérationnelle

F.BRENOT

RAP

Doctorat : INP de Toulouse, 25 Novembre 2016, 159p., Président: M.DEVY, Rapporteurs: F.BERRY, A.IZAGUIRRE, Examinateurs: D.GINHAC, Directeurs de thèse: P.FILLATREAU, J.PIAT , N° 16585

Diffusable

Plus d'informations

Abstract

In the field of obstacle detection and tracking for vision-based ADAS (Advanced Driver Assistance System), it is necessary to perform short-term vehicle localisation. Vision based SLAM (Simultaneous Localization and Mapping) solves this problem by combining the vehicle state estimation (local pose and speeds) and an incremental modelling of the environment. The environment is perceived by extracting features (interest points) in a sequence of images and tracking them over time to allow an incremental landmarks map construction. The perception step leads to an important computational load which affects very significantly the system latency and throughput. Co-design methodologies allow to design a mixed processing architecture optimized for a specific application In this type of architecture, the use of hardware accelerators allows for great performance increase (throughput, memory size, power consumption). The ZynQ (Xilinx) provides a prototyping mixed-architecture including a dual-core microprocessor combined with configurable hardware resources. The goal of this thesis is to propose a co-design implementation of a vision-based SLAM processing chain involving hardware accelerators for image processing in order to meet the constraints of an embedded ADAS system. The first contribution is the design of a complete 3D EKF-SLAM processing chain thanks to a co-design approach. We defined and validated, according to the followed co-design approach, the choice of a Hardware-in-the-loop (HIL) architecture to validate the different design iterations. The second contribution is the integration of dedicated hardware modules to accelerate the visual perception computations of this processing chain (features detection, description and matching).

Résumé

Dans le domaine de la détection et du suivi d’obstacles pour les systèmes ADAS (Advanced Driver Assistance System) basés vision, il est nécessaire d’assurer la localisation à court terme du véhicule. Le SLAM (Simultaneous Localization and Mapping) basé vision propose de résoudre ce problème en combinant l’estimation de l’état du véhicule (pose dans un repère local et vitesses) et une modélisation incrémentale de l’environnement. Ce dernier est perçu par l’extraction de caractéristiques locales (points d’intérêt) dans une séquence d’images et leur suivi au cours du temps pour permettre la construction incrémentale d’une carte d’amers. Cette tâche de perception engendre une importante charge de calcul qui affecte très significativement la latence et la cadence du système. Les méthodologies de co-design permettent de concevoir une architecture mixte de calcul pour l“exécution d’une application particulière. Dans ce type d’architecture, l’utilisation d’accélérateurs matériels permet d’améliorer significativement les performances (temps d’exécution, encombrement, consommation). Le ZynQ (Xilinx) propose une architecture de prototypage mixte comprenant un processeur dual-core associé à des ressources matérielles configurables. L’objectif de cette thèse est donc de proposer une implémentation co-design d’un SLAM basé vision par la conception d’accélérateurs pour les opérations de vision afin de satisfaire les contraintes en performances des systèmes ADAS embarqués. La première contribution des travaux est la conception de cette chaîne complète 3D EKFSLAM à l’aide une approche co-design. Nous avons défini et validé, selon notre méthodologie de conception, le choix d’une architecture Hardware-in-the-loop (HIL) afin de valider les différentes itérations de conception. La seconde contribution est l’intégration de modules matériels dédiés pour accélérer les traitements de perception visuelle de cette chaîne (détection, description et mise en correspondance de points d’intérêt).

Mots-Clés / Keywords
Ingénierie dirigée par les modèles; Caméra intelligente; Embedded systems; FPGA; SLAM; Smart sensing; Vision architecture; Vision monoculaire; Visual navigation;

139992
16401
25/10/2016

Etude de l'IHR sur deux groupes de personnes agées

P.RUMEAU, B.BOUDET, C.MOLLARET, I.FERRANE, F.LERASLE

CHU Toulouse, INSERM, RAP, IRIT-UPS

Manifestation avec acte : Conférence Francophone sur l'Interaction Homme-Machine ( IHM ) 2016 du 25 octobre au 28 octobre 2016, Fribourg (Suisse), Octobre 2016, pp.13-15 , N° 16401

Lien : https://hal.archives-ouvertes.fr/hal-01386673

Diffusable

Plus d'informations

Résumé

Nous avons étudié l'interaction homme-robot, en fonctionnement autonome en environnement contrôlé, de PR2™ utilisé pour rechercher des objets avec des sujets âgés (avec ou sans expertise robotique). L'observation a été complétée d'entretiens semi-directifs. Il n'y a pas eu de différence significative entre ces deux groupes pour le succès de la détection d'intentionnalité et la perception de l'interaction vocale. Ce résultat est en faveur d'IHM prenant en compte les spécificités de la personne âgée.

138250
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/