Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes

Publications de l'équipe RAP

Choisir la langue : FR | EN

386documents trouvés

18420
04/12/2018

Modélisation 3D et suivi visuel pour caractériser le phénotype de variétés de tournesol

W.GELARD

RAP

Doctorat : 4 Décembre 2018, 153p., Président: F.BARET, Rapporteurs: D.ROUSSEAU, G.RABATEL, Examinateurs: M.DEVY, Directeurs de thèse: A.HERBULOT, P.DEBAEKE , N° 18420

Diffusable

Plus d'informations

Abstract

The constant increasing food and energy demand in the world associated to global warming and climate change issues, pushed the researchs in plant breeding to move towards the improvement of crops performance and development of a more sustainable agriculture. To meet these demands, the effort made by the researchers were focused on the development of high-throughput genotyping methods (i.e., the study of genome sequence of plants) and allowed the biologists to indentified the genotypes of a large amount of plants. Moreover, understanding the relationships that link the genotypes (DNA) to the phenotypes (visual characteristics) that evolve according environmental conditions like : light, water, drought, heat, etc. has become a main issue in agricultural research. While the genotyping methods were rapidly improved and automatized during the last decade, the phenotyping methods remain manual, sometimes destructive and non-replicable. The usual phenotyping methods consist to measure certain visual parameters of a plant such as : main stem heigh, number of leaves, leaf initiation angle or leaf area, but more importantly, be able to follow these parameters along the plant growth. Consequently, the number of plants to harvest is very important and the measurements are extremely time-consuming. The emergence and reliability of new technologies in computer vision and robotic have led the researchers to take an interest in them and to seek how they can be used in plant science. The thesis is focused on the design, development and validation of a high-throughput phenotyping method design for sunflower plant with an eye to amplify phenotyping capacities by Agronomists and Geneticists (and later varieties evaluators and seed producers). The aim is to improve, modernize and automatize the current phenotyping methods as a way to help the plant scientists to collect a large amount of data. Motivated by the wish to perform high-throughput plant phenotyping, we propose a 3D approach to automatically extract visual characteristics of sunflower plants grown in pot. First, a 3D point cloud of a plant is acquired with classical SfM techniques. A segmentation step is then proceeded to retrieve the main stem and the leaves. With the intention of following the visual characteristics during the plant growth, especially, the leaf area expansion rate of each leaf, a labelling step relying on the botanical model of a plant is performed to affect them a unique label that will not change over time. Finally, the visual characteristics are extracted and results obtained on sunflower plants demonstrate the efficiency of our method and make it an encouraging step toward high-throughput plant phenotyping.

Résumé

L’augmentation constante de la demande alimentaire et énergétique dans le monde associée au réchauffement et changements climatiques ont poussé les recherches en agronomie vers le développement d’une agriculture plus durable et l’amélioration de la performance des cultures. Pour répondre à ces demandes, les chercheurs ont concentré leurs efforts sur le développement de méthodes de génotypage à haut débit (l’étude de la séquence génomique des plantes) et ont permis aux biologistes d’identifier les génotypes d’une grande quantité de plantes. De plus, comprendre les relations qui lient les génotypes (ADN) aux phénotypes (caractéristiques visuelles) qui évoluent en fonction des conditions d’irrigation, d’illumination ou de température est devenu un enjeu majeur dans la recherche agricole. Alors que les méthodes de génotypage ont été rapidement améliorées et automatisées au cours de la dernière décennie, les méthodes de phénotypage restent manuelles et parfois destructrices. Ces méthodes consistent à mesurer certains paramètres visuels d’une plante telle que : la hauteur de la tige principale, le nombre de feuilles, les angles d’initiation des feuilles ou la surface foliaire et plus important encore, à suivre ces paramètres tout au long de la croissance des plantes. Par conséquent, le nombre de plantes à cultiver est très important et les mesures prennent beaucoup de temps. Avec l’émergence des nouvelles technologies en vision par ordinateur et en robotique, les chercheurs en agronomie y ont vu un intérêt certain en vue d’automatiser la collecte et les mesures des données visuelles sur les plantes. La thèse porte sur la conception, le développement et la validation de traitements haut débit à exécuter automatiquement sur des images acquises sur des plantes de tournesol, en vue d’amplifier les capacités de phénotypage par les chercheurs en agronomie (et ultérieurement les évaluateurs de variétés et les semenciers). L’objectif est la mise au point d’un protocole d’acquisition d’images (en plante isolée) depuis un robot mobile (ou un système d’acquisition autonome) permettant d’améliorer, de moderniser et d’automatiser les méthodes de phénotypage actuelles afin d’aider les chercheurs en agronomie à collecter une grande quantité de données. Motivés par le souhait d’effectuer un phénotypage à haut débit, nous proposons une approche 3D pour extraire automatiquement les caractéristiques visuelles des plantes de tournesol cultivées en pot. Tout d’abord, un nuage de points 3D d’une plante est acquis avec des techniques classiques de SfM. Une étape de segmentation est ensuite effectuée pour extraire la tige principale et les feuilles. Dans le but de suivre les caractéristiques visuelles pendant la croissance des plantes, en particulier, suivre l’expansion foliaire de chaque feuille, une étape de labellisation basée sur le modèle botanique d’une plante est appliquée pour leur affecter une étiquette unique qui ne changera pas avec le temps. Enfin, les caractéristiques visuelles sont extraites et les résultats obtenus sur les plantes de tournesol démontrent l’efficacité de notre méthode et en font une étape encourageante vers le phénotypage haut débit.

Mots-Clés / Keywords
Phénotypage 3D; Tournesols; Reconstruction et Segmentation 3D; 3D Phenotyping; Sunflower plant; 3D Reconstruction and Segmentation;

145595
18334
26/10/2018

Hyper-parameter optimization tools comparison for Multiple Object Tracking applications

J.MADRIGAL DIAZ, C.MAURICE, F.LERASLE

RAP

Revue Scientifique : Machine Vision and Applications, 16p., Octobre 2018, doi 10.1007/s00138-018-0984-1 , N° 18334

Lien : https://hal.archives-ouvertes.fr/hal-01897032

Diffusable

Plus d'informations

Abstract

Commonly, when developing an algorithm it is necessary to define a certain number of variables that control its behavior. Optimal parameters result in better performance that could translate into profits for companies, stand out among similar applications or better ranking on algorithm competitions. However, it is not a simple task to find the combination of parameters that provides the best results. Manual tuning could be a stressful and difficult task even for expert users. In this paper we present, evaluate and compare several tools in the literature for hyper-parameter optimization. We focus on 4 tools that have been selected due to their number of citations, code availability and impact on literature: MCMC, SMAC, TPE and Spearmint. We analyze these tools in the context of Multi Object Tracking (MOT) that have not been well studied in the literature. MOT itself has been well-studied topic with multiple parameters to be tuned. We evaluate these tools using public benchmarks such as PETS09 or ETH and using the publicly available source code provided by the authors. We analyze the impact of these tools in terms of stability, performance, and usabil-ity, among others. Our results show how the use of these tools change the performance of the application and how this would affect the results of real ranked competitions. Our goal is (1) to encourage the reader to use these tools and (2) to provide a guide that helps to choose the most pertinent tool.

144949
18184
01/10/2018

Automated thermal 3 D reconstruction based on a robot equipped with uncalibrated infrared stereovision cameras

T.SENTENAC, F.BUGARIN, B.DUCAROUGE, M.DEVY

RAP, ICA

Revue Scientifique : Advanced Engineering Informatics, Vol.38, pp.203-215, Octobre 2018 , N° 18184

Lien : https://hal.archives-ouvertes.fr/hal-01829409

Diffusable

Plus d'informations

Abstract

In many industrial sectors, Non Destructive Testing (NDT) methods are used for the thermomechanical analysis of parts in assemblies of engines or reactors or for the control of metal forming processes. This article suggests an automated multi-view approach for the thermal 3D reconstruction required in order to compute 3D surface temperature models. This approach is based only on infrared cameras mounted on a Cartesian robot. The low resolution of these cameras associated to a lack of texture to infrared images require to use a global approach based first on an uncalibrated rectification and then on the simultaneous execution, in a single step, of the dense 3D reconstruction and of an extended self-calibration. The uncalibrated rectification is based on an optimization process under constraints which calculates the homographies without prior calculation of the Fundamental Matrix and which minimizes the projective deformations between the initial images and the rectified ones. The extended self-calibration estimates both the parameters of virtual cameras that could provide the rectified images directly, and the parameters of the robot. It is based on two criteria evaluated according to the noise level of the infrared images. This global approach is validated through the reconstruction of a hot object against a reference reconstruction acquired by a 3D scanner.

143998
18248
31/08/2018

Toward Self-Aware Robots

R.CHATILA, E.RENAUDO, M.ANDRIES, R.O.CHAVEZ-GARCIA, P.LUCE-VEYRAC, R.GOTTSTEIN, R.ALAMI, A.CLODIC, S.DEVIN, B.GIRARD, M.KHAMASSI

ISIR, Jussieu, RIS, RAP

Revue Scientifique : Frontiers in Robotics and AI, art.88, Vol.5, 20p., Août 2018 , N° 18248

Lien : https://hal.archives-ouvertes.fr/hal-01856931

Diffusable

Plus d'informations

Abstract

Despite major progress in Robotics and AI, robots are still basically " zombies " repeatedly achieving actions and tasks without understanding what they are doing. Deep-Learning AI programs classify tremendous amounts of data without grasping the meaning of their inputs or outputs. We still lack a genuine theory of the underlying principles and methods that would enable robots to understand their environment, to be cognizant of what they do, to take appropriate and timely initiatives, to learn from their own experience and to show that they know that they have learned and how. The rationale of this paper is that the understanding of its environment by an agent (the agent itself and its effects on the environment included) requires its self-awareness, which actually is itself emerging as a result of this understanding and the distinction that the agent is capable to make between its own mind-body and its environment. The paper develops along five issues: agent perception and interaction with the environment; learning actions; agent interaction with other agents—specifically humans; decision-making; and the cognitive architecture integrating these capacities.

144414
18202
28/06/2018

Suivi de la croissance de plantes par vision 3D

W.GELARD, A.HERBULOT, M.DEVY, P.CASADEBAIG

RAP, INRA Castanet

Manifestation avec acte : Congrès Reconnaissance des Formes, Image, Apprentissage et Perception ( RFIAP ) 2018 du 25 juin au 28 juin 2018, Marne-la-Vallée (France), Juin 2018, 8p. , N° 18202

Lien : https://hal.archives-ouvertes.fr/hal-01828207

Diffusable

Plus d'informations

Résumé

Cet article présente une approche de vision 3D permettant d’effectuer le suivi de la croissance de plantes et traite en particulier du suivi des feuilles de tournesol. Notre objectif est de calculer l’expansion foliaire sous deux conditions : plantes privées d’eau (état de stress hydrique) et plantes correctement irriguées (état de contrôle). Ces données seront ensuite exploitées par des biologistes afin d’étudier la résistance à la sécheresse de différentes variétés de tournesol. Notre méthode de suivi des feuilles par vision 3D a été évaluée sur 132 nuages de points acquis via des logiciels classiques de structure-from-motion et de stéréo multi-vues. Ces acquisitions ont été réalisées sur 12 plantes de tournesol (6 en état de stress hydrique et 6 en état de contrôle) sur une période d’un mois (11 mesures effectuées par plante). Cette méthode s’est révélée efficace sous les deux conditions (plantes irriguées et privées d’eau) afin d’effectuer le suivi de croissance d’une plante, ainsi que détecter l’apparition et la disparition de feuilles.

144154
18209
28/06/2018

Suivi de passagers de bus par apprentissage profond

C.LABIT-BONIS, J.THOMAS, F.LERASLE, J.MADRIGAL DIAZ

RAP, ACTIA

Manifestation avec acte : Congrès Reconnaissance des Formes, Image, Apprentissage et Perception ( RFIAP ) 2018 du 25 juin au 28 juin 2018, Marne-la-Vallée (France), Juin 2018, 8p. , N° 18209

Lien : https://hal.laas.fr/hal-01830834

Diffusable

Plus d'informations

Résumé

Cet article présente une étude comparative de suivi par détection appliqué au comptage passager dans les bus de ville. Un détecteur cible les passagers à chaque instant image, puis un traqueur reconstruit leurs trajectoires en associant ces détections. Nous comparons trois détecteurs par apprentissage profond peu explorés dans notre contexte applicatif, que nous couplons avec un traqueur temps réel pour une évaluation globale sur notre base large échelle d'images en situation réelle. Les résultats présentés sont très encourageants tant en terme de détection et de suivi que de rapidité pour nos perspectives embarquées.

144199
18166
26/06/2018

Calculs de résultants sous forme de déterminants

M.RENAUD

RAP

Rapport LAAS N°18166, Juin 2018, 144p.

Lien : https://hal.laas.fr/hal-01823546

Diffusable

143892
18064
15/03/2018

Soft-Cascade Learning with Explicit Computation Time Considerations

FBARBOSA ANDA, F.LERASLE, C.BRIAND, A.A.MEKONNEN

RAP, ROC

Manifestation avec acte : IEEE Winter Conference on Applications of Computer Vision ( WACV ) 2018 du 12 mars au 15 mars 2018, Lake Tahoe (USA), Mars 2018, 10p. , N° 18064

Lien : https://hal.archives-ouvertes.fr/hal-01726292

Diffusable

Plus d'informations

Abstract

This paper presents a novel framework for learning a soft-cascade detector with explicit computation time considerations. Classically, training techniques for soft-cascade detectors select a set of weak classifiers and their respective thresholds, solely to achieve the desired detection performance without any regard to the detector response time. Nevertheless, since computation time performance is of utmost importance in many time-constrained applications , this work divulges an optimization approach that aims to minimize the mean cascade response time, given a desired detection performance, fixed beforehand. The resulting problem is NP-Hard, therefore finding an optimal threshold vector can be very time-consuming, especially when building a soft-cascade detector of long length. An efficient local search procedure is presented that deals with long-length detectors. Our evaluations on two challenging public datasets confirm that a faster cascade detector can be learned while maintaining similar detection performances .

142834
18087
15/03/2018

3D Head Pose Estimation enhanced through SURF-based Key-Frames

J.MADRIGAL DIAZ, F.LERASLE, A.MONIN

RAP

Manifestation avec acte : IEEE Winter Conference on Applications of Computer Vision ( WACV ) 2018 du 12 mars au 15 mars 2018, Lake Tahoe (USA), Mars 2018, 9p. , N° 18087

Lien : https://hal.laas.fr/hal-01755776

Diffusable

Plus d'informations

Abstract

This work presents a method that incorporates 2D and 3D cues for the estimation of head pose. We propose the use of the concept of Key-Frames (KF), a set of frames where the position and orientation of the head is automatically calculated off-line, to improve the precision of pose estimation and detection rate. Each KF consists of: 2D information, encoded by SURF descriptors; 3D information from a depth image (both acquired by an RGB-D sensor); and a generic 3D model that corresponds to the head localization and orientation in the real world. Our algorithm compares a new frame against all KFs and selects the most relevant one. The 3D transformation between both, selected KF and current frame, can be estimated using the depth image and the Iterative Closest Point algorithm in an online framework. Compared to reference approaches, our system can handle partial occlusions and extreme rotations even with noisy depth data. We evaluate the proposal using two challenging datasets: (1) an dataset acquired by us where the ground-truth information is given by a commercial Motion Capture system and (2) the public benchmark Biwi Kinect Head Pose Database.

143199
18171
01/03/2018

Comparative Evaluations of Selected Tracking-by-Detection Approaches

A.A.MEKONNEN, F.LERASLE

RAP

Revue Scientifique : IEEE Transactions on Circuits and Systems for Video Technology, Mars 2018, DOI: 10.1109/TCSVT.2018.2817609 , N° 18171

Lien : https://hal.laas.fr/hal-01815850

Diffusable

Plus d'informations

Abstract

In this work, we present a comparative evaluation of various multi-person tracking-by-detection approaches on public datasets. The work investigates five popular trackers coupled with six relevant visual people detectors evaluated on seven public datasets. The evaluation emphasizes on exhibited performance variation depending on tracker-detector choices. Our experimental results show that the overall performance depends on how challenging the dataset is, the performance of the detector on the specific dataset, and the tracker-detector combination. Some trackers are more sensitive to the choice of a detector and some detectors to the choice of a tracker than others. Based on our results, two of the trackers demonstrate the best performances consistently across different datasets whereas the best performing detectors vary per dataset. This underscores the need for careful application context specific evaluation when choosing a detector.

143917
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/