Publications de l'équipe RAP

214documents trouvés

10174
25/03/2010

RFID-based robot localization and object mapping in a changing environment

A.CODAS DUARTE, M.DEVY

RAP

Rapport LAAS N°10174, Mars 2010, 8p.

Diffusable

120914
10071
09/02/2010

Impact of landmark parametrization on monocular EKF-SLAM with points and lines

J.SOLA, T.VIDAL CALLEJA, J.CIVERA

GEPETTO, RAP, DIIS

Rapport LAAS N°10071, Février 2010, 43p.

Lien : http://hal.archives-ouvertes.fr/hal-00451778/fr/

Diffusable

Plus d'informations

Abstract

This paper explores the impact that landmark parametrization has in the performance of monocular, EKF-based, 6-DOF simultaneous localization and mapping (SLAM) in the context of undelayed landmark initialization. The work proposes a unified framework for points and lines that is independent of the parametrization used. Three parametrizations for points and five for straight lines are accurately described, emphasizing their similarities and differences. Monocular undelayed initialization challenges EKF because of the combination of non-linearity with large uncertainty associated to the non-measured DOF. In this regard, the goal of a good landmark parametrization is to improve the system's linearity as much as possible, improving the filter consistency, and thus achieving robuster and more accurate localization and mapping. The paper highlights and justifies the keys for satisfactory operation: inverse-distance parameters and landmark anchoring. It also defines a generalized linearity index suited for the EKF, and uses it to compute and compare the degrees of linearity of each parametrization. Finally, all parametrizations are benchmarked employing analytical and statistical tools, with simulations and real imagery data, using the standard and the robocentric EKF-SLAM formulations.

120453
09834
01/02/2010

Environment modeling for cooperative aerial/ground robotic systems

T.VIDAL CALLEJA, C.BERGER, J.SOLA, S.LACROIX

RAP, RIS, GEPETTO

Rapport LAAS N°09834, Février 2010

Diffusable

120274
10303
29/01/2010

Fusion de données audio-visuelles pour l'interaction Homme-Robot

B.BURGER

RAP

Doctorat : Université Paul Sabatier, Toulouse, 29 Janvier 2010, 167p., Président: M.DEVY, Rapporteurs: O.BERNIER, L.BESACIER, Examinateurs: O.COLOT, P.JOLY, P.SAYD, Directeurs de thèse: F.LERASLE, I. FERRANE , N° 10303

Lien : http://tel.archives-ouvertes.fr/tel-00494382/fr/

Diffusable

Plus d'informations

Abstract

In the framework of assistance robotics, this PHD aims at merging two channels of information (visual and auditive) potentially available on a robot. The goal is to complete and/or confirm data that an only channel could have supplied in order to perform advanced interaction between a human and a robot. To do so, we propose a perceptual interface for multimodal interaction which goal is to interpret jointly speech and gesture, in particular for the use of spatial references. In this thesis, we first describe the speech part of this work which consists in an embedded recognition and interpretation system for continuous speech. Then comes the vision part which is composed of a visual multi-target tracker that tracks, in 3D, the head and the two hands of a human in front of the robot, and a second tracker for the head orientation. The outputs of these trackers are used to feed the gesture recognition system described later. We continue with the description of a module dedicated to the fusion of the data outputs of these information sources in a probabilistic framework. Last, we demonstrate the interest and feasibility of such a multimodal interface through some demonstrations on the LAAS-CNRS robots. All the modules described in this thesis are working in quasi-real time on these real robotic platforms.

Résumé

Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasi-temps réel sur ces plateformes robotiques réelles.

121475
10885
19/01/2010

Modélisation d'un objet 3D à partir d'images stéréo infrarouges avec calibrage sur images rectifiées

B.DUCAROUGE, T.SENTENAC, M.DEVY

RAP

Manifestation avec acte : Reconnaissance des Formes et Intelligence Artificielle (RFIA 2010), Caen (France), 19-22 Janvier 2010, 9p. , N° 10885

Diffusable

123931
09368
01/01/2010

Multicriteria analysis of visual servos through rational systems, biquadratic Lyapunov functions, and LMIs

P.DANES, D.F.COUTHINO, S.DUROLA

RAP, GACS

Ouvrage (contribution) : Visual Servoing via Advanced Numerical Method, N°ISBN 978-1-84996-088-5, 2010, pp.169-188 , N° 09368

Diffusable

125411
10199
01/01/2010

Paramétrisation des fonctions de vraisemblance et choix de filtres particulaires pour le suivi visuel

M.FONTMARTY, F.LERASLE, P.DANES

RAP

Manifestation avec acte : Reconnaissance des Formes et Intelligence Artificielle (RFIA 2010), Caen (France), 18-22 Janvier 2010, 8p. , N° 10199

Diffusable

121137
09625
01/01/2010

The EAR Project

J.BONNAL, S.ARGENTIERI, P.DANES, J.MANHES, P.SOUERES, M.RENAUD

RAP, 2I, GEPETTO

Revue Scientifique : Journal of the Robotics Society of Japan (RSJ), Vol.28, N°1, pp.10-13, Janvier 2010, Special issue "Robot Audition" , N° 09625

Diffusable

120978
10200
01/01/2010

Fusion de données visuelles et RFID pour le suivi de personnes en environnement encombré depuis un robot mobile

T.GERMA, F.LERASLE, N.OUADAH, V.CADENAT, C.LEMAIRE

CDTA d'Alger, RAP, 2I

Manifestation avec acte : Reconnaissance des Formes et Intelligence Artificielle (RFIA 2010), Caen (France), 18-22 Janvier 2010, 8p. , N° 10200

Diffusable

121139
09774
01/01/2010

Optimisation globale polynomiale appliquée à la rectification projective d'images non calibrées

F.BUGARIN, D.HENRION, T.SENTENAC, J.B.LASSERRE, J.J.ORTEU

CROMeP , MAC, RAP

Manifestation avec acte : French Conference on Pattern Recognition and Artificial Intelligence (RFIA 2010), Caen (France), 19-22 Janvier 2010, 8p. , N° 09774

Lien : http://hal.archives-ouvertes.fr/hal-00420081/fr/

Diffusable

122022
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de fonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/