Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes

Publications de l'équipe RAP

Choisir la langue : FR | EN

406documents trouvés

18334
01/03/2019

Hyper-parameter optimization tools comparison for Multiple Object Tracking applications

J.MADRIGAL DIAZ, C.MAURICE, F.LERASLE

RAP

Revue Scientifique : Machine Vision and Applications, Vol.30, N°2, pp.269-289, Mars 2019, doi 10.1007/s00138-018-0984-1 , N° 18334

Lien : https://hal.archives-ouvertes.fr/hal-01897032

Diffusable

Plus d'informations

Abstract

Commonly, when developing an algorithm it is necessary to define a certain number of variables that control its behavior. Optimal parameters result in better performance that could translate into profits for companies, stand out among similar applications or better ranking on algorithm competitions. However, it is not a simple task to find the combination of parameters that provides the best results. Manual tuning could be a stressful and difficult task even for expert users. In this paper we present, evaluate and compare several tools in the literature for hyper-parameter optimization. We focus on 4 tools that have been selected due to their number of citations, code availability and impact on literature: MCMC, SMAC, TPE and Spearmint. We analyze these tools in the context of Multi Object Tracking (MOT) that have not been well studied in the literature. MOT itself has been well-studied topic with multiple parameters to be tuned. We evaluate these tools using public benchmarks such as PETS09 or ETH and using the publicly available source code provided by the authors. We analyze the impact of these tools in terms of stability, performance, and usabil-ity, among others. Our results show how the use of these tools change the performance of the application and how this would affect the results of real ranked competitions. Our goal is (1) to encourage the reader to use these tools and (2) to provide a guide that helps to choose the most pertinent tool.

144949
19019
23/01/2019

Conception et Développement de Composants Logiciels et Matériels pour un Dispositif Ophtalmique

J.COMBIER

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 23 Janvier 2019, 223p., Président: F.BERRY, Rapporteurs: A.IZAGUIRRE ALTUNA, , Examinateurs: A.BOUCHIER, O.MOREL, Directeurs de thèse: P.DANES, B.VANDEPORTAELE , N° 19019

Non diffusable

Plus d'informations

Résumé

Les recherches menées au cours de cette thèse de Doctorat s’inscrivent dans les activités du laboratoire commun OPERA (OPtique EmbaRquée Active) impliquant ESSILOR-LUXOTTICA et le CNRS. L’objectif est de contribuer au développement des “lunettes du futur” intégrant des fonctions d’obscurcissement, de focalisation ou d’affichage qui s’adaptent en permanence à la scène et au regard de l’utilisateur. Ces nouveaux dispositifs devront être dotés de capacités de perception, de décision et d’action, et devront respecter des contraintes d’encombrement, de poids, de consommation énergétique et de temps de traitement. Ils présentent par conséquent des connexions évidentes avec la robotique. Dans ce contexte, les recherches ont consisté à investiguer la structure et la construction de tels systèmes afin d’identifier leurs enjeux et difficultés. Pour ce faire, la première tâche a été de mettre en place des émulateurs de divers types de lunettes actives, qui permettent de prototyper et d’évaluer efficacement diverses fonctions. Dans cette phase de prototypage et de test, ces émulateurs s’appuient naturellement sur une architecture logicielle modulaire typique de la robotique. La seconde partie de la thèse s’est focalisée sur le prototypage d’un composant clé des lunettes du futur, qui implique une contrainte supplémentaire de basse consommation : le système de suivi du regard, aussi appelé oculomètre. Le principe d’un assemblage de photodiodes et d’un traitement par réseau de neurones a été proposé. Un simulateur a été mis au point, ainsi qu’une étude de l’influence de l’agencement des photodiodes et de l’hyper-paramétrisation du réseau sur les performances de l’oculomètre.

146315
17709
01/01/2019

Spatiotemporal Optimization for Rolling Shutter Camera Pose Interpolation

P.A.GOHARD, B.VANDEPORTAELE, M.DEVY

RAP

Ouvrage (contribution) : Computer Vision, Imaging and Computer Graphics – Theory and Applications, Springer, N°ISBN 978-3-030-12208-9, Janvier 2019, pp.154-175 , N° 17709

Lien : https://hal.laas.fr/hal-02049412

Diffusable

Plus d'informations

Abstract

Rolling Shutter cameras are predominant in the tablet and smart-phone market due to their low cost and small size. However, these cameras require specific geometric models when either the camera or the scene is in motion to account for the sequential exposure of the different lines of the image. This paper proposes to improve a state-of-the-art model for RS cameras through the use of Non Uniformly Time-Sampled B-splines. This allows to interpolate the pose of the camera while taking into account the varying dynamic of its motion, using higher density of control points where needed while keeping a low number of control points where the motion is smooth. Two methods are proposed to determine adequate distributions for the control points, using either an IMU sensor or an iterative reprojection error minimization. The non-uniform camera model is integrated into a Bundle Adjustment optimization which is able to converge even from a poor initial estimate. A routine of spatiotempo-ral optimization is presented in order to optimize both the spatial and temporal positions of the control points. Results on synthetic and real datasets are shown to prove the concepts and future works are introduced that should lead to the integration of our model in a SLAM algorithm.

147001
18671
18/12/2018

Intelligent Image-based-Visual Servoing for Quadrotor Air Vehicle

D.ETOUIL, N.TERKI, A.AOUINA, R.AJGOU

Biskra, RAP, Univ of El Oued

Manifestation avec acte : International Conference on Communications and Electrical Engineering ( ICCEE ) 2018 du 17 décembre au 18 décembre 2018, El Oued (Algerie), Décembre 2018 , N° 18671

Lien : https://hal.laas.fr/hal-02267710

Diffusable

147799
18599
10/12/2018

Techniques d'optimisation pour la détection et ré-identification de personnes dans un réseau de caméras

FBARBOSA ANDA

RAP, ROC

Doctorat : Université de Toulouse III - Paul Sabatier, 10 Décembre 2018, 162p., Président: L.TAMINE-LECHANI, Rapporteurs: V.T'KINDT, J.M.M.C.PEREIRA BATISTA, Examinateurs: M.BABEL, Directeurs de thèse: C.BRIAND, F.LERASLE , N° 18599

Lien : https://hal.laas.fr/tel-02079969

Diffusable

Plus d'informations

Résumé

Cette thèse traite de la détection et de la ré-identification de personnes dans un environnement instrumenté par un réseau de caméras à champ disjoint. Elle est à la confluence des communautés Recherche Opérationnelle et Vision car elle s’appuie sur des techniques d’optimisation combinatoire pour formaliser de nouvelles modalités de vision par ordinateur. Dans ce contexte, un détecteur visuel de personnes, basé sur la programmation linéaire en nombres entiers, est tout d’abord proposé. Son originalité est de prendre en compte le coût de traitement et non uniquement les performances de détection. Ce détecteur est évalué et comparé aux détecteurs de la littérature les plus performants. Ces expérimentations menées sur deux bases de données publiques mettent clairement en évidence l’intérêt de notre détecteur en terme de coût de traitement avec garantie de performance de détection. La seconde partie de la thèse porte sur la modalité de ré-identification de personnes. L’originalité de notre approche, dénommée D-NCR (pour Directed Network Consistent Re-identification), est de prendre explicitement en compte les temps minimum de transit des personnes dans le réseau de caméras et sa topologie pour améliorer la performance de la ré-identification. On montre que ce problème s’apparente à une recherche de chemins disjoints particuliers à profit maximum dans un graphe orienté. Un programme linéaire en nombres entiers est proposé pour sa modélisation et résolution. Les évaluations réalisées sur une base publique d’images sont prometteuses et montrent le potentiel de cette approche.

Mots-Clés / Keywords
Optimisation combinatoire; Détection de personnes; Réidentification de personnes;

146893
18420
04/12/2018

Modélisation 3D et suivi visuel pour caractériser le phénotype de variétés de tournesol

W.GELARD

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 4 Décembre 2018, 153p., Président: F.BARET, Rapporteurs: D.ROUSSEAU, G.RABATEL, Examinateurs: M.DEVY, Directeurs de thèse: A.HERBULOT, P.DEBAEKE , N° 18420

Lien : https://hal.laas.fr/tel-02167190

Diffusable

Plus d'informations

Abstract

The constant increasing food and energy demand in the world associated to global warming and climate change issues, pushed the researchs in plant breeding to move towards the improvement of crops performance and development of a more sustainable agriculture. To meet these demands, the effort made by the researchers were focused on the development of high-throughput genotyping methods (i.e., the study of genome sequence of plants) and allowed the biologists to indentified the genotypes of a large amount of plants. Moreover, understanding the relationships that link the genotypes (DNA) to the phenotypes (visual characteristics) that evolve according environmental conditions like : light, water, drought, heat, etc. has become a main issue in agricultural research. While the genotyping methods were rapidly improved and automatized during the last decade, the phenotyping methods remain manual, sometimes destructive and non-replicable. The usual phenotyping methods consist to measure certain visual parameters of a plant such as : main stem heigh, number of leaves, leaf initiation angle or leaf area, but more importantly, be able to follow these parameters along the plant growth. Consequently, the number of plants to harvest is very important and the measurements are extremely time-consuming. The emergence and reliability of new technologies in computer vision and robotic have led the researchers to take an interest in them and to seek how they can be used in plant science. The thesis is focused on the design, development and validation of a high-throughput phenotyping method design for sunflower plant with an eye to amplify phenotyping capacities by Agronomists and Geneticists (and later varieties evaluators and seed producers). The aim is to improve, modernize and automatize the current phenotyping methods as a way to help the plant scientists to collect a large amount of data. Motivated by the wish to perform high-throughput plant phenotyping, we propose a 3D approach to automatically extract visual characteristics of sunflower plants grown in pot. First, a 3D point cloud of a plant is acquired with classical SfM techniques. A segmentation step is then proceeded to retrieve the main stem and the leaves. With the intention of following the visual characteristics during the plant growth, especially, the leaf area expansion rate of each leaf, a labelling step relying on the botanical model of a plant is performed to affect them a unique label that will not change over time. Finally, the visual characteristics are extracted and results obtained on sunflower plants demonstrate the efficiency of our method and make it an encouraging step toward high-throughput plant phenotyping.

Résumé

L’augmentation constante de la demande alimentaire et énergétique dans le monde associée au réchauffement et changements climatiques ont poussé les recherches en agronomie vers le développement d’une agriculture plus durable et l’amélioration de la performance des cultures. Pour répondre à ces demandes, les chercheurs ont concentré leurs efforts sur le développement de méthodes de génotypage à haut débit (l’étude de la séquence génomique des plantes) et ont permis aux biologistes d’identifier les génotypes d’une grande quantité de plantes. De plus, comprendre les relations qui lient les génotypes (ADN) aux phénotypes (caractéristiques visuelles) qui évoluent en fonction des conditions d’irrigation, d’illumination ou de température est devenu un enjeu majeur dans la recherche agricole. Alors que les méthodes de génotypage ont été rapidement améliorées et automatisées au cours de la dernière décennie, les méthodes de phénotypage restent manuelles et parfois destructrices. Ces méthodes consistent à mesurer certains paramètres visuels d’une plante telle que : la hauteur de la tige principale, le nombre de feuilles, les angles d’initiation des feuilles ou la surface foliaire et plus important encore, à suivre ces paramètres tout au long de la croissance des plantes. Par conséquent, le nombre de plantes à cultiver est très important et les mesures prennent beaucoup de temps. Avec l’émergence des nouvelles technologies en vision par ordinateur et en robotique, les chercheurs en agronomie y ont vu un intérêt certain en vue d’automatiser la collecte et les mesures des données visuelles sur les plantes. La thèse porte sur la conception, le développement et la validation de traitements haut débit à exécuter automatiquement sur des images acquises sur des plantes de tournesol, en vue d’amplifier les capacités de phénotypage par les chercheurs en agronomie (et ultérieurement les évaluateurs de variétés et les semenciers). L’objectif est la mise au point d’un protocole d’acquisition d’images (en plante isolée) depuis un robot mobile (ou un système d’acquisition autonome) permettant d’améliorer, de moderniser et d’automatiser les méthodes de phénotypage actuelles afin d’aider les chercheurs en agronomie à collecter une grande quantité de données. Motivés par le souhait d’effectuer un phénotypage à haut débit, nous proposons une approche 3D pour extraire automatiquement les caractéristiques visuelles des plantes de tournesol cultivées en pot. Tout d’abord, un nuage de points 3D d’une plante est acquis avec des techniques classiques de SfM. Une étape de segmentation est ensuite effectuée pour extraire la tige principale et les feuilles. Dans le but de suivre les caractéristiques visuelles pendant la croissance des plantes, en particulier, suivre l’expansion foliaire de chaque feuille, une étape de labellisation basée sur le modèle botanique d’une plante est appliquée pour leur affecter une étiquette unique qui ne changera pas avec le temps. Enfin, les caractéristiques visuelles sont extraites et les résultats obtenus sur les plantes de tournesol démontrent l’efficacité de notre méthode et en font une étape encourageante vers le phénotypage haut débit.

Mots-Clés / Keywords
Phénotypage 3D; Tournesols; Reconstruction et Segmentation 3D; 3D Phenotyping; Sunflower plant; 3D Reconstruction and Segmentation;

145595
18610
01/11/2018

A Graph Representation Composed of Geometrical Components for Household Furniture Detection by Autonomous Mobile Robots

O.ALONSO-RAMIREZ, A.MARIN HERNANDEZ, H.V.RIOS FIGUEROA, M.DEVY, S.EPOMARES HERNANDEZ, E.J.RECHY-RAMIREZ

Veracruzana, RAP, SARA

Revue Scientifique : Applied Sciences, Vol.8, N°11, 2234p., Novembre 2018 , N° 18610

Lien : https://hal.archives-ouvertes.fr/hal-02049276

Diffusable

Plus d'informations

Abstract

This study proposes a framework to detect and recognize household furniture using autonomous mobile robots. The proposed methodology is based on the analysis and integration of geometric features extracted over 3D point clouds. A relational graph is constructed using those features to model and recognize each piece of furniture. A set of sub-graphs corresponding to different partial views allows matching the robot's perception with partial furniture models. A reduced set of geometric features is employed: horizontal and vertical planes and the legs of the furniture. These features are characterized through their properties, such as: height, planarity and area. A fast and linear method for the detection of some geometric features is proposed, which is based on histograms of 3D points acquired from an RGB-D camera onboard the robot. Similarity measures for geometric features and graphs are proposed, as well. Our proposal has been validated in home-like environments with two different mobile robotic platforms; and partially on some 3D samples of a database.

147003
18612
01/11/2018

HW/SW co-design of a visual SLAM application

J.PIAT, P.FILLATREAU, D.TORTEI, F.BRENOT, M.DEVY

RAP, LGP

Revue Scientifique : Journal of Real-Time Image Processing, Novembre 2018 , N° 18612

Lien : https://hal.laas.fr/hal-02049364

Diffusable

Plus d'informations

Abstract

Vision-based advanced driver assistance systems (ADAS), appeared in the 2000s, are increasingly integrated on-board mass-produced vehicles, as off-the-shelf low-cost cameras are now available. But ADAS implement most of the time-specific and basic functionalities such as lane departure or control of the distance to other vehicles. Integrating accurate localization and mapping functionalities meeting the constraints of ADAS (high-throughput, low-consumption, and small-design footprint) would pave the way towards obstacle detection, identification and tracking on-board vehicles at potential high speed. While the SLAM problem has been widely addressed by the robotics community, very few embedded operational implementations can be found, and they do not meet the ADAS-related constraints. In this paper, we implement the first 3D monocular EKF-SLAM chain on a heterogeneous architecture, on a single System on Chip (SoC), meeting these constraints. In order to do so, we picked up a standard co-design method (Shaout et al. Specification and modeling of hw/sw co-design for heterogeneous embedded systems, 2009) and adapted it to the implementation of potentially any of such complex processing chains. The refined method encompasses a hardware-in-the-loop approach allowing to progressively integrate hardware accelerators on the basis of a systematic rule. We also have designed original hardware accelerators for all the image processing functions involved, and for some algebraic operations involved in the filtering process.

147013
18658
19/10/2018

De la réalité augmentée sans marqueur pour l’aménagement d’intérieur à la réalité diminuée sur plateforme mobile

P.A.GOHARD

RAP

Doctorat : Université de Toulouse III - Paul Sabatier, 19 Octobre 2018, 187p., Président: E.L.MOUADDIB, Rapporteurs: M.O.BERGER, D.FOFI, Examinateurs: G.MORIN, Directeurs de thèse: M.DEVY, B.VANDEPOTAELE , N° 18658

Lien : https://hal.laas.fr/tel-02161206

Diffusable

Plus d'informations

Résumé

La réalité augmentée en vision désigne les systèmes rendant possibles l’incrustation d’objets virtuels dans une séquence d’images en temps réel. Les applications de cette technologie sont multiples et touchent de plus en plus de domaines, mais la diffusion massive des téléphones mobiles équipés d’une caméra ont permis le déploiement de premiers services grand public exploitant la réalité augmentée. Le contexte de cette thèse concerne l’utilisation de cette technique sur plateforme mobile pour assister un usager à décorer un environnement d’intérieur, notamment en rajoutant des meubles virtuels dans les images. La réalité augmentée suppose la localisation de la caméra ainsi qu’une reconstruction partielle de la scène observée afin de pouvoir disposer le meuble de manière physiquement cohérente avec l’environnement. Dans une première contribution, nous étudions comment exploiter les caméras équipant les téléphones mobiles, généralement à obturateur déroulant. Ces caméras exposent les lignes d’une image à des temps différents, au contraire des caméras à obturateur global qui exposent l’ensemble de l’image à un instant donné. Ainsi, dans le cas d’un mouvement relatif entre la caméra et la scène, chaque ligne est exposée d’un point de vue différent, ce qui produit des distorsions dans les images. D’abord, nous étudions l’impact de l’utilisation de caméras à obturateur déroulant sur les algorithmes associés à la réalité augmentée, en particulier sur l’Odométrie Visuelle (VO), ou la Cartographie et Localisation Simultanées (SLAM). Nous exploitons un dispositif constitué d’une centrale inertielle bas coût (gyros et accéléros), d’une caméra à obturateur déroulant et d’une caméra à obturateur global montées de manière rigide pour avoir des points de vues très proche. Les algorithmes VO ou SLAM sont appliqués sur des séquences d’images synchronisées, acquises sous un système de capture de mouvements afin de disposer d’une vérité terrain. Ces travaux illustrent la nécessité d’une modélisation plus fidèle du capteur à obturateur déroulant, notamment lors de mouvements rapides de la caméra en rotation. Ensuite, nous proposons un nouveau modèle en temps continu de la trajectoire effectuée par la caméra afin de pouvoir obtenir une estimée des paramètres extrinsèques pour chaque ligne d’une image. Ce modèle suppose une interpolation à partir d’un ensemble de points de contrôle, les points de contrôle pouvant être disposés de manière non uniforme dans le temps. Cette distribution temporelle non-uniforme des points de contrôle permet de les placer quand et où cela est nécessaire. Nous présentons deux méthodes permettant d’estimer les instants où la génération d’un point de contrôle apporte le plus d’information. Les points de contrôle sont ensuite raffinés par optimisation afin d’obtenir une trajectoire correspondant aux observations. Nous étendons les paramètres de l’optimisation en incluant l’horodatage des points de contrôle et montrons l’amélioration obtenue sur l’estimation de trajectoires réelles. Dans une deuxième contribution, nous avons étudié comment modéliser une scène. Le contexte d’intérieur suppose de grands plans de la scène généralement très peu texturés, pour lesquels les méthodes de reconstruction communes par appariement de points échouent. Afin de répondre à cette contrainte, nous proposons l’utilisation de primitives de plus haut niveau ainsi que différentes paramétrisations des amers de la carte. Nous fournissons des modèles de pièce ayant différentes propriétés. Une modélisation plus ou moins fidèle de différents types d’intérieur, est donnée par des paramètres qui sont estimés via un processus d’optimisation. Nous présentons finalement différentes applications sur le rajout de meubles virtuels pour l’aménagement en milieu d’intérieur. Dans un premier temps, la pose caméra est obtenue à partir d’une seule image et de différentes hypothèses et informations en entrée. L’adaptation d’un algorithme de SLAM existant sur tablette Android est également partiellement abordé. Un module complet d’un processus de réalité altérée est finalement présenté, où l’environnement est en partie effacé afin de pouvoir rajouter un élément virtuel.

Mots-Clés / Keywords
Réalité augmentée; Réalité diminuée; Localisation et Cartographie simultanées; Modélisation de caméra; Caméra à obturateur déroulant; Perspective N View; Ajustement de faisceaux; Interpolation; B-Spline non uniforme; Reconstruction; Monde Manhattan;

147553
18499
10/10/2018

3D Leaf Tracking for Plant Growth Monitoring

W.GELARD, A.HERBULOT, M.DEVY, P.CASADEBAIG

RAP, INRA Castanet

Manifestation avec acte : IEEE International Conference on Image Processing ( ICIP ) 2018 du 07 octobre au 10 octobre 2018, Athènes (Grece), Octobre 2018, 5p. , N° 18499

Lien : https://hal.laas.fr/hal-01957628

Diffusable

Plus d'informations

Abstract

This article presents a 3D approach in plant growth monitoring and deals with the tracking of leaves of sunflower plants. Our aim is to compute time-series of individual leaf area, under water stress and control conditions. These data will then be used by biologists to study the drought resistance of various sunflower species. Our method to track the leaves in 3D has been evaluated on a set of 132 point clouds obtained via classical structure-from-motion techniques and multi-view stereo software. These 3D acquisitions have been performed on 12 sunflower plants (6 water-stressed, 6 well-watered) during a period of one month (11 measurement dates per sunflower plant). This method gives promising results for both conditions (water-stressed and well-watered), for different species and is able to follow the growth of the plants, as well as to detect new leaf emergence and leaf decay.

146053
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/