Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes

Publications de l'équipe RAP

Choisir la langue : FR | EN

382documents trouvés

18184
01/10/2018

Automated thermal 3 D reconstruction based on a robot equipped with uncalibrated infrared stereovision cameras

T.SENTENAC, F.BUGARIN, B.DUCAROUGE, M.DEVY

RAP, ICA

Revue Scientifique : Advanced Engineering Informatics, Vol.38, pp.203-215, Octobre 2018 , N° 18184

Lien : https://hal.archives-ouvertes.fr/hal-01829409

Diffusable

Plus d'informations

Abstract

In many industrial sectors, Non Destructive Testing (NDT) methods are used for the thermomechanical analysis of parts in assemblies of engines or reactors or for the control of metal forming processes. This article suggests an automated multi-view approach for the thermal 3D reconstruction required in order to compute 3D surface temperature models. This approach is based only on infrared cameras mounted on a Cartesian robot. The low resolution of these cameras associated to a lack of texture to infrared images require to use a global approach based first on an uncalibrated rectification and then on the simultaneous execution, in a single step, of the dense 3D reconstruction and of an extended self-calibration. The uncalibrated rectification is based on an optimization process under constraints which calculates the homographies without prior calculation of the Fundamental Matrix and which minimizes the projective deformations between the initial images and the rectified ones. The extended self-calibration estimates both the parameters of virtual cameras that could provide the rectified images directly, and the parameters of the robot. It is based on two criteria evaluated according to the noise level of the infrared images. This global approach is validated through the reconstruction of a hot object against a reference reconstruction acquired by a 3D scanner.

143998
18202
28/06/2018

Suivi de la croissance de plantes par vision 3D

W.GELARD, A.HERBULOT, M.DEVY, P.CASADEBAIG

RAP, INRA Castanet

Manifestation avec acte : Congrès Reconnaissance des Formes, Image, Apprentissage et Perception ( RFIAP ) 2018 du 25 juin au 28 juin 2018, Marne-la-Vallée (France), Juin 2018, 8p. , N° 18202

Lien : https://hal.archives-ouvertes.fr/hal-01828207

Diffusable

Plus d'informations

Résumé

Cet article présente une approche de vision 3D permettant d’effectuer le suivi de la croissance de plantes et traite en particulier du suivi des feuilles de tournesol. Notre objectif est de calculer l’expansion foliaire sous deux conditions : plantes privées d’eau (état de stress hydrique) et plantes correctement irriguées (état de contrôle). Ces données seront ensuite exploitées par des biologistes afin d’étudier la résistance à la sécheresse de différentes variétés de tournesol. Notre méthode de suivi des feuilles par vision 3D a été évaluée sur 132 nuages de points acquis via des logiciels classiques de structure-from-motion et de stéréo multi-vues. Ces acquisitions ont été réalisées sur 12 plantes de tournesol (6 en état de stress hydrique et 6 en état de contrôle) sur une période d’un mois (11 mesures effectuées par plante). Cette méthode s’est révélée efficace sous les deux conditions (plantes irriguées et privées d’eau) afin d’effectuer le suivi de croissance d’une plante, ainsi que détecter l’apparition et la disparition de feuilles.

144154
18209
28/06/2018

Suivi de passagers de bus par apprentissage profond

C.LABIT-BONIS, J.THOMAS, F.LERASLE, J.MADRIGAL DIAZ

RAP, ACTIA

Manifestation avec acte : Congrès Reconnaissance des Formes, Image, Apprentissage et Perception ( RFIAP ) 2018 du 25 juin au 28 juin 2018, Marne-la-Vallée (France), Juin 2018, 8p. , N° 18209

Lien : https://hal.laas.fr/hal-01830834

Diffusable

Plus d'informations

Résumé

Cet article présente une étude comparative de suivi par détection appliqué au comptage passager dans les bus de ville. Un détecteur cible les passagers à chaque instant image, puis un traqueur reconstruit leurs trajectoires en associant ces détections. Nous comparons trois détecteurs par apprentissage profond peu explorés dans notre contexte applicatif, que nous couplons avec un traqueur temps réel pour une évaluation globale sur notre base large échelle d'images en situation réelle. Les résultats présentés sont très encourageants tant en terme de détection et de suivi que de rapidité pour nos perspectives embarquées.

144199
18166
26/06/2018

Calculs de résultants sous forme de déterminants

M.RENAUD

RAP

Rapport LAAS N°18166, Juin 2018, 144p.

Lien : https://hal.laas.fr/hal-01823546

Diffusable

143892
18064
15/03/2018

Soft-Cascade Learning with Explicit Computation Time Considerations

FBARBOSA ANDA, F.LERASLE, C.BRIAND, A.A.MEKONNEN

RAP, ROC

Manifestation avec acte : IEEE Winter Conference on Applications of Computer Vision ( WACV ) 2018 du 12 mars au 15 mars 2018, Lake Tahoe (USA), Mars 2018, 10p. , N° 18064

Lien : https://hal.archives-ouvertes.fr/hal-01726292

Diffusable

Plus d'informations

Abstract

This paper presents a novel framework for learning a soft-cascade detector with explicit computation time considerations. Classically, training techniques for soft-cascade detectors select a set of weak classifiers and their respective thresholds, solely to achieve the desired detection performance without any regard to the detector response time. Nevertheless, since computation time performance is of utmost importance in many time-constrained applications , this work divulges an optimization approach that aims to minimize the mean cascade response time, given a desired detection performance, fixed beforehand. The resulting problem is NP-Hard, therefore finding an optimal threshold vector can be very time-consuming, especially when building a soft-cascade detector of long length. An efficient local search procedure is presented that deals with long-length detectors. Our evaluations on two challenging public datasets confirm that a faster cascade detector can be learned while maintaining similar detection performances .

142834
18087
15/03/2018

3D Head Pose Estimation enhanced through SURF-based Key-Frames

J.MADRIGAL DIAZ, F.LERASLE, A.MONIN

RAP

Manifestation avec acte : IEEE Winter Conference on Applications of Computer Vision ( WACV ) 2018 du 12 mars au 15 mars 2018, Lake Tahoe (USA), Mars 2018, 9p. , N° 18087

Lien : https://hal.laas.fr/hal-01755776

Diffusable

Plus d'informations

Abstract

This work presents a method that incorporates 2D and 3D cues for the estimation of head pose. We propose the use of the concept of Key-Frames (KF), a set of frames where the position and orientation of the head is automatically calculated off-line, to improve the precision of pose estimation and detection rate. Each KF consists of: 2D information, encoded by SURF descriptors; 3D information from a depth image (both acquired by an RGB-D sensor); and a generic 3D model that corresponds to the head localization and orientation in the real world. Our algorithm compares a new frame against all KFs and selects the most relevant one. The 3D transformation between both, selected KF and current frame, can be estimated using the depth image and the Iterative Closest Point algorithm in an online framework. Compared to reference approaches, our system can handle partial occlusions and extreme rotations even with noisy depth data. We evaluate the proposal using two challenging datasets: (1) an dataset acquired by us where the ground-truth information is given by a commercial Motion Capture system and (2) the public benchmark Biwi Kinect Head Pose Database.

143199
18171
01/03/2018

Comparative Evaluations of Selected Tracking-by-Detection Approaches

A.A.MEKONNEN, F.LERASLE

RAP

Revue Scientifique : IEEE Transactions on Circuits and Systems for Video Technology, Mars 2018, DOI: 10.1109/TCSVT.2018.2817609 , N° 18171

Lien : https://hal.laas.fr/hal-01815850

Diffusable

Plus d'informations

Abstract

In this work, we present a comparative evaluation of various multi-person tracking-by-detection approaches on public datasets. The work investigates five popular trackers coupled with six relevant visual people detectors evaluated on seven public datasets. The evaluation emphasizes on exhibited performance variation depending on tracker-detector choices. Our experimental results show that the overall performance depends on how challenging the dataset is, the performance of the detector on the specific dataset, and the tracker-detector combination. Some trackers are more sensitive to the choice of a detector and some detectors to the choice of a tracker than others. Based on our results, two of the trackers demonstrate the best performances consistently across different datasets whereas the best performing detectors vary per dataset. This underscores the need for careful application context specific evaluation when choosing a detector.

143917
18108
23/02/2018

Partitionnement en cliques à profit maximum de graphes orientés avec contraintes de flot

FBARBOSA ANDA, C.BRIAND, F.LERASLE

RAP, ROC

Manifestation avec acte : Congrès Annuel de la Société Française de Recherche Opérationnelle et d'Aide à la Décision ( ROADEF ) 2018 du 21 février au 23 février 2018, Lorient (France), Février 2018, 2p. , N° 18108

Lien : https://hal.archives-ouvertes.fr/hal-01765307

Diffusable

Plus d'informations

Résumé

Nous présentons un problème de partitionnement en cliques à profit maximum d’un graphe orientés avec contraintes de flots. Ce problème est voisin du problème de partition en cliques classique [2] excepté que le graphe est orienté et composé de deux catégories d’arcs : ceux sur lesquels circule un flot et les autres. Il est issu d’un problème de ré-identification de personnes dans un réseau de caméras.

143375
16142
01/02/2018

An information based feedback control for audio-motor binaural localization

G.BUSTAMANTE , P.DANES, T.FORGUE, A.PODLUBNE, J.MANHES

RAP, I2C

Revue Scientifique : Autonomous Robots, Vol.42, N°2, pp.477-490, Février 2018 , N° 16142

Lien : https://hal.laas.fr/hal-01710571

Diffusable

142432
18001
29/01/2018

Mind the regularized GAP, for human action classification and semi-supervised localization based on visual saliency

M.MOREAUX, N.LYUBOVA, I.FERRANE, F.LERASLE

RAP, Softbank Robotics, IRIT-UPS

Manifestation avec acte : International Conference on Computer Vision Theory and Applications ( VISAPP ) 2018 du 27 janvier au 29 janvier 2018, Funchal (Portugal), Janvier 2018, 9p. , N° 18001

Lien : https://hal.laas.fr/hal-01763103

Diffusable

Plus d'informations

Abstract

This work addresses the issue of image classification and localization of human actions based on visual data acquired from RGB sensors. Our approach is inspired by the success of deep learning in image classification. In this paper, we describe our method and how the concept of Global Average Pooling (GAP) applies in the context of semi-supervised class localization. We benchmark it with respect to Class Activation Mapping initiated in (Zhou et al., 2016), propose a regularization over the GAP maps to enhance the results, and study whether a combination of these two ideas can result in a better classification accuracy. The models are trained and tested on the Stanford 40 Action dataset (Yao et al., 2011) describing people performing 40 different actions such as drinking, cooking or watching TV. Compared to the aforementioned baseline, our model improves the classification accuracy by 5.3 percent points, achieves a localization accuracy of 50.3%, and drastically diminishes the computation needed to retrieve the class saliency from the base convolutional model.

142173
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/