Laboratoire d’Analyse et d’Architecture des Systèmes
A.CODAS DUARTE, M.DEVY
RAP
Rapport LAAS N°10174, Mars 2010, 8p.
Diffusable
120914J.SOLA, T.VIDAL CALLEJA, J.CIVERA
GEPETTO, RAP, DIIS
Rapport LAAS N°10071, Février 2010, 43p.
Lien : http://hal.archives-ouvertes.fr/hal-00451778/fr/
Diffusable
Plus d'informations
This paper explores the impact that landmark parametrization has in the performance of monocular, EKF-based, 6-DOF simultaneous localization and mapping (SLAM) in the context of undelayed landmark initialization. The work proposes a unified framework for points and lines that is independent of the parametrization used. Three parametrizations for points and five for straight lines are accurately described, emphasizing their similarities and differences. Monocular undelayed initialization challenges EKF because of the combination of non-linearity with large uncertainty associated to the non-measured DOF. In this regard, the goal of a good landmark parametrization is to improve the system's linearity as much as possible, improving the filter consistency, and thus achieving robuster and more accurate localization and mapping. The paper highlights and justifies the keys for satisfactory operation: inverse-distance parameters and landmark anchoring. It also defines a generalized linearity index suited for the EKF, and uses it to compute and compare the degrees of linearity of each parametrization. Finally, all parametrizations are benchmarked employing analytical and statistical tools, with simulations and real imagery data, using the standard and the robocentric EKF-SLAM formulations.
T.VIDAL CALLEJA, C.BERGER, J.SOLA, S.LACROIX
RAP, RIS, GEPETTO
Rapport LAAS N°09834, Février 2010
Diffusable
120274B.BURGER
RAP
Doctorat : Université Paul Sabatier, Toulouse, 29 Janvier 2010, 167p., Président: M.DEVY, Rapporteurs: O.BERNIER, L.BESACIER, Examinateurs: O.COLOT, P.JOLY, P.SAYD, Directeurs de thèse: F.LERASLE, I. FERRANE , N° 10303
Lien : http://tel.archives-ouvertes.fr/tel-00494382/fr/
Diffusable
Plus d'informations
In the framework of assistance robotics, this PHD aims at merging two channels of information (visual and auditive) potentially available on a robot. The goal is to complete and/or confirm data that an only channel could have supplied in order to perform advanced interaction between a human and a robot. To do so, we propose a perceptual interface for multimodal interaction which goal is to interpret jointly speech and gesture, in particular for the use of spatial references. In this thesis, we first describe the speech part of this work which consists in an embedded recognition and interpretation system for continuous speech. Then comes the vision part which is composed of a visual multi-target tracker that tracks, in 3D, the head and the two hands of a human in front of the robot, and a second tracker for the head orientation. The outputs of these trackers are used to feed the gesture recognition system described later. We continue with the description of a module dedicated to the fusion of the data outputs of these information sources in a probabilistic framework. Last, we demonstrate the interest and feasibility of such a multimodal interface through some demonstrations on the LAAS-CNRS robots. All the modules described in this thesis are working in quasi-real time on these real robotic platforms.
Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasi-temps réel sur ces plateformes robotiques réelles.
B.DUCAROUGE, T.SENTENAC, M.DEVY
RAP
Manifestation avec acte : Reconnaissance des Formes et Intelligence Artificielle (RFIA 2010), Caen (France), 19-22 Janvier 2010, 9p. , N° 10885
Diffusable
123931P.DANES, D.F.COUTHINO, S.DUROLA
RAP, GACS
Ouvrage (contribution) : Visual Servoing via Advanced Numerical Method, N°ISBN 978-1-84996-088-5, 2010, pp.169-188 , N° 09368
Diffusable
125411M.FONTMARTY, F.LERASLE, P.DANES
RAP
Manifestation avec acte : Reconnaissance des Formes et Intelligence Artificielle (RFIA 2010), Caen (France), 18-22 Janvier 2010, 8p. , N° 10199
Diffusable
121137J.BONNAL, S.ARGENTIERI, P.DANES, J.MANHES, P.SOUERES, M.RENAUD
RAP, 2I, GEPETTO
Revue Scientifique : Journal of the Robotics Society of Japan (RSJ), Vol.28, N°1, pp.10-13, Janvier 2010, Special issue "Robot Audition" , N° 09625
Diffusable
120978T.GERMA, F.LERASLE, N.OUADAH, V.CADENAT, C.LEMAIRE
CDTA d'Alger, RAP, 2I
Manifestation avec acte : Reconnaissance des Formes et Intelligence Artificielle (RFIA 2010), Caen (France), 18-22 Janvier 2010, 8p. , N° 10200
Diffusable
121139F.BUGARIN, D.HENRION, T.SENTENAC, J.B.LASSERRE, J.J.ORTEU
CROMeP , MAC, RAP
Manifestation avec acte : French Conference on Pattern Recognition and Artificial Intelligence (RFIA 2010), Caen (France), 19-22 Janvier 2010, 8p. , N° 09774
Lien : http://hal.archives-ouvertes.fr/hal-00420081/fr/
Diffusable
122022