Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes

Publications de l'équipe RAP

Choisir la langue : FR | EN

353documents trouvés

16536
05/12/2016

Co-design Hardware/Software of Real time Vision System on FPGA for Obstacle Detection

A.ALHAMWI

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, Décembre 2016, 163p., Président: M.DEVY, Rapporteurs: H.SNOUSSI, J.DUBOIS, Examinateurs: J.F.NEZAN, B.VANDEPORTAELE, Directeurs de thèse: J.PIAT , N° 16536

Lien : https://hal.laas.fr/tel-01483746

Diffusable

Plus d'informations

Résumé

La Détection, localisation d’obstacles et la reconstruction de carte d’occupation 2D sont des fonctions de base pour un robot navigant dans un environnement intérieure lorsque l’intervention avec les objets se fait dans un environnement encombré. Les solutions fondées sur la vision artificielle et couramment utilisées comme SLAM ( Simultaneous Localization And Mapping) ou le flux optique ont tendance à être des calculs intensifs. Ces solutions nécessitent des ressources de calcul puissantes pour répondre à faible vitesse en temps réel aux contraintes. Nous présentons une architecture matérielle pour la détection, localisation d’obstacles et la reconstruction de cartes d’occupation 2D en temps réel. Le système proposé est réalisé en utilisant une architecture de vision sur FPGA (Field Programmable Gates Array) et des capteurs d’odométrie pour la détection, localisation des obstacles et la cartographie. De la fusion de ces deux sources d’information complémentaires résulte un modèle amélioré de l’environnement autour des robots. L’architecture proposé est un système à faible coût avec un temps de calcul réduit, un débit d’images élevé, et une faible consommation d’énergie.

Abstract

Obstacle detection, localization and occupancy map reconstruction are essential abilities for a mobile robot to navigate in an environment. Solutions based on passive monocular vision such as Simultaneous Localization And Mapping (SLAM) or Optical Flow (OF) require intensive computation. Systems based on these methods often rely on over-sized computation resources to meet real-time constraints. Inverse Perspective Mapping allows for obstacles detection at a low computational cost under the hypothesis of a flat ground observed during motion. It is thus possible to build an occupancy grid map by integrating obstacle detection over the course of the sensor. In this work we propose hardware/software system for obstacle detection, localization and 2D occupancy map reconstruction in real-time. The proposed system uses a FPGA-based design for vision and proprioceptive sensors for localization. Fusing this information allows for the construction of a simple environment model of the sensor surrounding. The resulting architecture is a low-cost, low-latency, high-throughput and low-power system.

Mots-Clés / Keywords
Implementation FPGA; Détection d’obstacles; Traitement d’images en temps réel; Accéleration hardware; Vision robotique;

139073
16504
02/12/2016

Co-design of architectures and algorithms for mobile robot localization and model-based detection of obstacles

D.TORTEI

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 2 Décembre 2016, 137p., Président: B.BOROVAC, Rapporteurs: M.AKIL, Examinateurs: J.PIAT, D.OBRADOVIC, Directeurs de thèse: M.DEVY, M.RAKOVIC , N° 16504

Lien : https://hal.laas.fr/tel-01477662

Diffusable

Plus d'informations

Résumé

Un véhicule autonome ou un robot mobile est équipé d’un système de navigation qui doit comporter plusieurs briques fonctionnelles pour traiter de perception, localisation, planification de trajectoires et locomotion. Dès que ce robot ou ce véhicule se déplace dans un environnement humain dense, il exécute en boucle et en temps réel plusieurs fonctions pour envoyer des consignes aux moteurs, pour calculer sa position vis-à-vis d’un repère de référence connu, et pour détecter de potentiels obstacles sur sa trajectoire; du fait de la richesse sémantique des images et du faible coût des caméras, ces fonctions exploitent souvent la vision. Les systèmes embarqués sur ces machines doivent alors intégrer des cartes assez puissantes pour traiter des données visuelles en temps réel. Par ailleurs, les contraintes d’autonomie de ces plateformes imposent de très faibles consommations énergétiques. Cette thèse proposent des architectures de type SOPC (System on Programmable Chip) con¸cues par une méthodologie de co-design matériel/logiciel pour exécuter de manière efficace les fonctions de localisation et de détection des obstacles à partir de la vision. Les résultats obtenus sont équivalents ou meilleurs que l’état de l’art, concernant la gestion de la carte locale d’amers pour l’odométrie-visuelle par une approche EKF-SLAM, et le rapport vitesse d’exécution sur précision pour ce qui est de la détection d’obstacles par identification dans les images d’objets (piétons, voitures...) sur la base de modèles appris au préalable.

Abstract

An autonomous mobile platform is endowed with a navigational system which must contain multiple functional bricks: perception, localization, path planning and motion control. As soon as such a robot or vehicle moves in a crowded environment, it continously loops several tasks in real time: sending reference values to motors’ actuators, calculating its position in respect to a known reference frame and detection of potential obstacles on its path. Thanks to semantic richness provided by images and to low cost of visual sensors, these tasks often exploit visual cues. Other embedded systems running on these mobile platforms thus demand for an additional integration of high-speed embeddable processing systems capable of treating abundant visual sensorial input in real-time. Moreover, constraints influencing the autonomy of the mobile platform impose low power consumption. This thesis proposes SOPC (System on a Programmable Chip) architectures for efficient embedding of vison-based localization and obstacle detection tasks in a navigational pipeline by making use of the software/hardware co-design methodology. The obtained results are equivalent or better in comparison to state-of-the-art for both EKF-SLAM based visual odometry: regarding the local map size management containing seven-dimensional landmarks and model-based detection-by-identification obstacle detection: algorithmic precision over execution speed metric.

138833
16467
01/12/2016

Trade-off between GPGPU based implementations of multi object tracking particle filter

P.JECMEN, F.LERASLE, A.A.MEKONNEN

RAP

Rapport LAAS N°16467, Décembre 2016, 10p.

Diffusable

138478
16401
25/10/2016

Etude de l'IHR sur deux groupes de personnes agées

P.RUMEAU, B.BOUDET, C.MOLLARET, I.FERRANE, F.LERASLE

CHU Toulouse, INSERM, RAP, IRIT-UPS

Manifestation avec acte : Conférence Francophone sur l'Interaction Homme-Machine ( IHM ) 2016 du 25 octobre au 28 octobre 2016, Fribourg (Suisse), Octobre 2016, pp.13-15 , N° 16401

Lien : https://hal.archives-ouvertes.fr/hal-01386673

Diffusable

Plus d'informations

Résumé

Nous avons étudié l'interaction homme-robot, en fonctionnement autonome en environnement contrôlé, de PR2™ utilisé pour rechercher des objets avec des sujets âgés (avec ou sans expertise robotique). L'observation a été complétée d'entretiens semi-directifs. Il n'y a pas eu de différence significative entre ces deux groupes pour le succès de la détection d'intentionnalité et la perception de l'interaction vocale. Ce résultat est en faveur d'IHM prenant en compte les spécificités de la personne âgée.

138250
16363
24/10/2016

Combination of RGB-D features for head and upper body orientation classification

L.FITTE DUVAL, A.A.MEKONNEN, F.LERASLE

RAP

Manifestation avec acte : Advanced Concepts for Intelligent Vision Systems ( ACIVS ) 2016 du 24 octobre au 27 octobre 2016, Lecce (Italie), Octobre 2016, paper 2019, 13p. , N° 16363

Diffusable

Plus d'informations

Abstract

In Human-Robot Interaction (HRI), the intention of a person to interact with another agent (robot or human) can be inferred from his/her head and upper body orientation. Furthermore, additional information on the person's overall intention and motion direction can be determined with the knowledge of both orientations. This work presents an exhaustive evaluation of various combinations of RGB and depth image features with different classifiers. These evaluations intend to highlight the best feature representation for the body part orientation to classify, i.e, the person's head or upper body. Our experiments demonstrate that high classification performances can be achieved by combining only three families of RGB and depth features and using a multiclass SVM classifier.

137957
16325
08/10/2016

Improving multi-frame data association with sparse representations for robust near-online multi-object tracking

L.FAGOT-BOUQUET, R.AUDIGIER, Y.DHOME, F.LERASLE

CEA LIST, RAP

Manifestation avec acte : European Conference on Computer Vision ( ECCV ) 2016 du 08 octobre au 16 octobre 2016, Amsterdam (Pays Bas), Octobre 2016, 16p. , N° 16325

Diffusable

137737
16334
12/09/2016

Online audiovisual signature training for person re-identification

F.DECROIX, J.PINQUIER, I.FERRANE, F.LERASLE

RAP, IRIT-UPS

Manifestation avec acte : International Conference on Distributed Smart Cameras ( ICDSC ) 2016 du 12 septembre au 15 septembre 2016, Paris (France), Septembre 2016, 7p. , N° 16334

Diffusable

137767
16387
05/09/2016

3D plant phenotyping in sunflower using architecture-based organ segmentation from 3D point clouds

W.GELARD, P.BURGER, P.CASADEBAIG, N.LANGLADE, P.DEBAEKE, M.DEVY, A.HERBULOT

RAP, INRA Castanet

Manifestation avec acte : International Workshop on Image Analysis Methods for the Plant Sciences ( IAMPS ) 2016 du 05 septembre au 06 septembre 2016, Angers (France), Septembre 2016, 3p. , N° 16387

Lien : https://hal.archives-ouvertes.fr/hal-01380234

Diffusable

Plus d'informations

Abstract

This paper presents a 3D phenotyping method applied to sunflower, allowing to compute the leaf area of an isolated plant. This is a preliminary step towards the automated monitoring of leaf area and plant growth through the plant life cycle. First, a model-based segmentation method is applied to 3D data derived from RGB images acquired on sunflower plants grown in pots. The RGB image acquisitions are made all around the isolated plant with a single hand-held standard camera (Sony A5100) and a 3D point cloud is computed using Structure from Motion and Multiple-view Stereo techniques [1, 2]. To do that, we used Bundler [3] and PMVS [4], Open Source libraries which can produce an accurate point cloud for plant phenotyping [5]. Then a model-based segmentation method is applied in order to segment and label the plant leaves, i.e. to split up the point cloud in regions, one for the stem, the other ones for the leaves. The leaf label is determined using the elevation of its petiole insertion point on the stem, and the relative orientation with respect to the previous leaf.

138178
16079
01/09/2016

Incorporating computation time measures during heterogeneous features selection in a boosted cascade people detector

A.A.MEKONNEN, F.LERASLE, A.HERBULOT, C.BRIAND

RAP, ROC

Revue Scientifique : International Journal of Pattern Recognition and Artificial Intelligence, Vol.30, N°8, 1655022p., Septembre 2016, doi 10.1142/S0218001416550223 , N° 16079

Lien : https://hal.archives-ouvertes.fr/hal-01300472

Diffusable

Plus d'informations

Abstract

In this paper, we investigate the notion of incorporating feature computation time measures during feature selection in a boosted cascade people detector utilizing heterogeneous pool of features. We present various approaches based on pareto-front analysis, computation time weighted Adaboost, and Binary Integer Programming (BIP) with comparative evaluations. The novel feature selection method proposed based on BIP – the main contribution – mines heterogeneous features taking both detection performance and computation time explicitly into consideration. The results demonstrate that the detector using this feature selection scheme exhibits low miss rates with significant boost in frame rate. For example, it achieves a 2.6% less miss rate at 10e−4 FPPW compared to Dalal and Triggs HOG detector with a 9.22x speed improvement. The presented extensive experimental results clearly highlight the improvements the proposed framework brings to the table.

137652
16141
28/08/2016

A one-step-ahead information-based feedback control for binaural active localization

G.BUSTAMANTE , P.DANES, T.FORGUE, A.PODLUBNE

RAP

Conférence invitée : European Signal Processing Conference ( EUSIPCO ) 2016 du 29 août au 02 septembre 2016, Budapest (Hongrie), Août 2016, 5p. , N° 16141

Diffusable

137357
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/