Architectures dynamiques reconfigurables
pour systèmes embarqués autonomes mobiles

Adream

Démonstrations Robotique

Démo 3 - Robots assistants et équipiers de l’homme / Robotic assistants and teammates
R. Alami, T. Siméon, D. Sidobre, M. Devy, F. Ingrand, M. Herrb, A. Mallet
M. Gharbi, S. Lemaignan, J. Mainprice, G. Manfredi, A. Pandey, J. Guitton, M. Warnier, Wuwei He, Lavinda Da Silva

Démo 3a - "Robot, apporte moi la télécommande !" 
Planification et contrôle d'une tâche de recherche et livraison d'objet à une personne dans un environnement domestique.
Doctorants et Postdoc impliqués: Mamoun Gharbi, Séverin Lemaignan, Guido Manfredi, Jim Mainprice

Cette demo comprend une variante (3b) qui peut être exécutée de manière rapide et interactive: Le planification et l'exécution du placement acceptable d'un robot par rapport à une personne.
Doctorants et Postdoc impliqués: Jim Mainprice,  Wuwei Hei, Mamoun Gharbi

Cette démonstration utilise le robot PR2 qui se déplacera dans le séjour et la chambre à coucher de l'appartement. Elle illustre la capacité du robot de détecter la position et la posture de la personne puis de planifier le lieu où la tâche peut se réaliser. Ainsi le robot planifie pour lui-même mais aussi pour l'homme. Elle illustre également la capacité du robot d'identifier, de localiser et de manipuler (choix de prise, mouvement sans collision en environnement contraint) des objets. Le logiciel mis en œuvre intègre également, le dialogue, l'illustration au moyen d'une visualisation, des concepts ontologiques utilisés par le robot, la planification d'une tâche impliquant à la fois l'homme et le robot. En effet, le robot prend en compte non seulement le plan des lieux et l'emplacement des meubles mais également la position et la posture de l'homme.

La demo 1.B illustre la capacité du robot de planifier en ligne un mouvement acceptable qui assure à la fois la sécurité et le confort de l'homme: prise en compte de distances de sécurité et approche en restant dans le champ de visibilité de l'homme. Exécution d'un mouvement souple avec limitation du jerk (dérivée de l'accélération).

Démo 3b - "Nettoyons la table !" 
Collaboration homme-robot: Manipulation interactive d'objets (uniquement le 5/7)
Doctorants et Postdoc impliqués: Matthieu Warnier, Julien Guitton, Séverin Lemaignan, Wuwei Hei, Jim Mainprice, Vincent Barbaresi

Cette démonstration utilise le robot Jido équipé d'un bras Kuka LWR. Elle illustre la capacité pour le robot de conduire une tâche collaborative. Le robot est capable d'estimer l'accessibilité des objets par lui-même et par l'homme en effectuant une prise de perspective. A partir de là le robot calcul et réalise des plans partagés (shared plans) dans lesquels l'homme peut être mis à contribution si nécessaire. La démonstration illustre le déploiement de nombreux composants logiciel: 
  1. le système SPARK sui permet de suivre en temps réel l'état de l'environnement, de la tâche et de l'homme, 
  2. ORO un système permettant de stocker et de raisonner sur des faits symboliques associés aux concepts ontologiques que le robot manipule et qui permet de gérer non seulement les croyances du robots mais aussi celles qu'il attribue à l'homme, 
  3. MHP un planificateur de tâches de déplacement etr de manipulation, 
  4. HATP un planificateur de tâches qui intègre à la fois les actions du robot et celles de son partenaire humain
  5. Softmotion, un contrôleur de mouvement souple avec limitation du jerk 
  6. et enfin un superviseur qui contrôle l'ensemble de ces composants et permet au robot d'agir et d'interpréter les actions de l'homme.

Démo 3c - Le simulateur Open Source MORSE 
Modélisation et exploitation des modèles du bâtiment et illustration d'une interaction homme avec robot simulé (uniquement le 5/7)
Doctorants et Postdoc impliqués: Gilberto Echeverria, Lavindra Da Silva, Séverin Lemaignan, Jim Mainprice, Matthieu Warnier

Cette démonstration utilise un grand écran sur pied et un capteur de type Kinect. Elle met en œuvre des expérimentations en environnement simulé (celui du bâtiment ADREAM) dans lesquels le robot et l'homme sont représentés et interagissent. On peut choisir de contrôler l'un ou l'autre (ou même les deux).  Plusieurs scenarios seront illustrés: circulation dans le bâtiment, manipulation d'objets, navigation.  Le simulateur MORSE (http://www.openrobots.org/wiki/morse/) est une initiative Open source du LAAS. Il a été développé dans le cadre du projet ROSACE (financé par le RTRA STAE et incluant trois laboratoires toulousains LAAS, IRIT et ONERA ) et est aujourd'hui utilisé dans de nombreux laboratoires européens.

Démo 4 - Coopération entre drones et robots terrestres pour la surveillance d'environnement / Aerial and terrestrial robots cooperation for environnement surveillance
Simon Lacroix, Arnaud Degroote, Gilberto Echeverria, Cyril Roussillon, Cyril Robin, Matthieu Herrb
Durée (5/07) : 20 minutes

Un robot terrestre et un robot aérien coopèrent pour détecter et suivre une cible mobile.  Ils exécutent un plan de patrouille préalablement établi, s’adaptent à des aléas d’exécution (le robot terrestre est bloqué ou perdu) et coopèrent pour assurer le suivi de la cible une fois détectée.

Contexte applicatifs considérés : surveillance de sites industriels ou militaires (détection d'incidents, de pollutions, d'intrusions...), surveillance environnementale, exploration scientifique, interventions après catastrophes...
Démonstration : l'hélicoptère réel ne pouvant évoluer au laboratoire pour des raisons de sécurité, il est simulé. Le robot terrestre évolue lui réellement : une infrastructure de simulation développée au laboratoire permet de réaliser des "simulations hybrides", dans lesquelles des robots réels coopèrent avec des robots simulés.

Cette démonstration exhibe la capacité de navigation autonome d'un robot terrestre (modélisation de l'environnement, localisation sans GPS, génération et exécution des déplacements, suivi de cible...), et surtout la capacité qu'ont plusieurs robots hétérogènes de coopérer de manière autonome, sans intervention d'un opérateur. En partageant les informations qu'ils acquièrent sur l'environnement, les robots planifient conjointement leurs actions afin de réaliser au mieux la mission. 
La démonstration illustre des travaux menés conjointement par le LAAS et l'Onera dans le Programme d'Études Amont "Action" financé par la DGA.

Démo 5 - Navigation coordonnée d’un robot guide dans une foule / Navigation of a guide robot in a crowd
A. Mekonnen, F. Lerasle, V. Cadenat, A. Herbulot, A. Coustou
Durée (5/07) : 15 minutes

Le LAAS mène des recherches sur l’interaction de capteurs fixes avec des capteurs embarqués sur des robots mobiles. Cette démonstration illustre la navigation coordonnée entre un homme et notre robot guide Rackham, en exploitant plusieurs modalités sensorielles : caméra, télémétrie laser et lecteurs RFID associés à des antennes directionnelles capable de détecter un badge porté par une personne. Le robot reçoit aussi la position des autres personnes détectées par deux caméras enfouies dans l’environnement. Ces informations sont fusionnées dans une carte du sol, exploitée par le robot pour s’asservir sur les mouvements de l’homme, tout en évitant les obstacles.
Au delà du lien avec la Robotique, cette thématique peut bénéficier de nombreuses synergies  avec les autres domaines traités dans l’axe thématique ADREAM: réseau et communication (adaptation des protocoles de communication pour garantir la qualité de service), intégration (architecture des systèmes embarqués pour la perception, méthodologie de conception, co-design…), protection de la vie privée, diagnostic….