Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

34documents trouvés

16462
13/12/2016

Monitoring et détection d'anomalie par apprentissage dans des infrastructures virtualisées

C.SAUVANAUD

TSF

Doctorat : INSA de Toulouse, 13 Décembre 2016, 174p., Président: E.EXPOSITO, Rapporteurs: S.BOUCHENAK, P.SENS, Examinateurs: K.LAZRI, Directeurs de thèse: M.KAANICHE, K.KANOUN , N° 16462

Lien : https://hal.laas.fr/tel-01445648

Diffusable

Plus d'informations

Abstract

Nowadays, the development of virtualization technologies as well as the development of the Internet contributed to the rise of the cloud computing model. A cloud computing enables the delivery of configurable computing resources while enabling convenient, on-demand network access to these resources. Resources hosted by a provider can be applications, development platforms or infrastructures. Over the past few years, computing systems are characterized by high development speed, parallelism, and the diversity of task to be handled by applications and services. In order to satisfy their Service Level Agreements (SLA) drawn up with users, cloud providers have to handle stringent dependability demands. Ensuring these demands while delivering various services makes clouds dependability a challenging task, especially because providers need to make their services available on demand. This task is all the more challenging that users expect cloud services to be at least as dependable as traditional computing systems. In this manuscript, we address the problem of anomaly detection in cloud services. A detection strategy for clouds should rely on several principal criteria. In particular it should adapt to workload changes and reconfigurations, and at the same time require short configurations durations and adapt to several types of services. Also, it should be performed online and automatic. Finally, such a strategy needs to tackle the detection of different types of anomalies namely errors, preliminary symptoms of SLA violation and SLA violations. We propose a new detection strategy based on system monitoring data. The data is collected online either from the service, or the underlying hypervisor(s) hosting the service. The strategy makes use of machine learning algorithms to classify anomalous behaviors of the service. Three techniques are used, using respectively algorithms with supervised learning, unsupervised learning or using a technique exploiting both types of learning. A new anomaly detection technique is developed based on online clustering, and allowing to handle possible changes in a service behavior. A cloud platform was deployed so as to evaluate the detection performances of our strategy. Moreover a fault injection tool was developed for the sake of two goals : the collection of service observations with anomalies so as to train detection models, and the evaluation of the strategy in presence of anomalies. The evaluation was applied to two case studies : a database management system and a virtual network function. Sensitivity analyzes show that detection performances of our strategy are high for the three anomaly types. The context for the generalization of the results is also discussed.

Résumé

Le cloud computing est un modèle de délivrance à la demande d’un ensemble de ressources informatiques distantes, partagées et configurables. Ces ressources, détenues par un fournisseur de service cloud, sont mutualisées grâce à la virtualisation de serveurs qu’elles composent et sont mises à disposition d’utilisateurs sous forme de services disponibles à la demande. Ces services peuvent être aussi variés que des applications, des plateformes de développement ou bien des infrastructures. Afin de répondre à leurs engagements de niveau de service auprès des utilisateurs, les fournisseurs de cloud se doivent de prendre en compte des exigences différentes de sûreté de fonctionnement. Assurer ces exigences pour des services différents et pour des utilisateurs aux demandes hétérogènes représente un défi pour les fournisseurs, notamment de part leur engagement de service à la demande. Ce défi est d’autant plus important que les utilisateurs demandent à ce que les services rendus soient au moins aussi sûrs de fonctionnement que ceux d’applications traditionnelles. Nos travaux traitent particulièrement de la détection d’anomalies dans les services cloud de type SaaS et PaaS. Les différents types d’anomalie qu’il est possible de détecter sont les erreurs, les symptômes préliminaires de violations de service et les violations de service. Nous nous sommes fixé quatre critères principaux pour la détection d’anomalies dans ces services : i) elle doit s’adapter aux changements de charge de travail et reconfiguration de services ; ii) elle doit se faire en ligne, iii) de manière automatique, iv) et avec un effort de configuration minimum en utilisant possiblement la même technique quel que soit le type de service. Dans nos travaux, nous avons proposé une stratégie de détection qui repose sur le traitement de compteurs de performance et sur des techniques d’apprentissage automatique. La détection utilise les données de performance système collectées en ligne à partir du système d’exploitation hôte ou bien via les hyperviseurs déployés dans le cloud. Concernant le traitement des ces données, nous avons étudié trois types de technique d’apprentissage : supervisé, non supervisé et hybride. Une nouvelle technique de détection reposant sur un algorithme de clustering est de plus proposée. Elle permet de prendre en compte l’évolution de comportement d’un système aussi dynamique qu’un service cloud. Une plateforme de type cloud a été déployée afin d’évaluer les performances de détection de notre stratégie. Un outil d’injection de faute a également été développé dans le but de cette évaluation ainsi que dans le but de collecter des jeux de données pour l’entrainement des modèles d’apprentissage. L’évaluation a été appliquée à deux cas d’étude : un système de gestion de base de données (MongoDB) et une fonction réseau virtualisée. Les résultats obtenus à partir d’analyses de sensibilité, montrent qu’il est possible d’obtenir de très bonnes performances de détection pour les trois types d’anomalies, tout en donnant les contextes adéquats pour la généralisation de ces résultats.

Mots-Clés / Keywords
Apprentissage automatique; Cloud computing; Détection d'anomalie; Injection de fautes; Monitoring; Virtualisation;

138473
16552
06/12/2016

Protection des systèmes informatiques vis à vis des malveillances : un hyperviseur de sécurité assisté par le matériel

B.MORGAN

TSF

Doctorat : INSA de Toulouse, 6 Décembre 2016, 146p., Président: M.KAANICHE, Rapporteurs: M.LAURENT, M.L.POTET, Examinateurs: S.DUVERGER, A.FRANCILLON, J.L.LANET, Directeurs de thèse: V.NICOMETTE, E.ALATA , N° 16552

Lien : https://hal.laas.fr/tel-01499283

Diffusable

Plus d'informations

Abstract

Computer systems are nowadays evolving quickly. The classical model which consists in associating a physical machine to every users is becoming obsolete. Today, computer resources we are using can be distributed any place on the Internet and usual workstations are not systematically physical machines anymore. This fact is enlightening two important phenomenons which are leading the evolution of the usage we make of computers : Cloud computing and hardware virtualization. Cloud computing enables users to exploit computers resources, with a fine grained granularity and a non predefined amount of time, which are available into a cloud of resources. Cloud systems must be able to adapt quickly to a fluctuating demand and being able to reconfigure themselves quickly. One way to reach these goals is dependant of the usage of virtual machines and the associated virtualization techniques. Even if computer resource virtualization has not been introduced by the cloud, the arrival of the cloud substantially increased its usage. Nowadays, all cloud providers are using virtual machines, which are much more deployable and movable than physical machines. Thus, even if we can see that virtualization is a real interest for modern computer science, it is either clear that its implementation is adding complexity to computer systems, both at software and hardware levels. From this observation, it is legitimate to ask the question about computer security in this context, with an increased architecture complexity and more and more privileged execution modes. Given the presence of multiple virtual machines, which do not trust each other, and which are executing in the same physical machine, will a compromised virtual machine be able to exploit one vulnerability ? Isn’t it necessary to consider new security architectures taking these risks into account ? This thesis is trying to answer to these questions. In particular, we are introducing state of the art security issues in virtualized environment of modern architectures. Starting from this work, we are proposing an original architecture ensuring the integrity of a software being executed on a computer system, regardless its privilege level. This architecture is both using software, a security hypervisor, and hardware, a trusted peripheral, we have both designed and implemented.

Résumé

L’utilisation des systèmes informatiques est aujourd’hui en pleine évolution. Le modèle classique qui consiste à associer à chaque utilisateur une machine physique qu’il possède et dont il va exploiter les ressources devient de plus en plus obsolète. Aujourd’hui, les ressources informatiques que l’on utilise peuvent être distribuées n’importe où dans l’Internet et les postes de travail du quotidien ne sont plus systématiquement des machines réelles. Cette constatation met en avant deux phénomènes importants qui sont à l’origine de l’évolution de notre utilisation de l’informatique : le Cloud computing et la virtualisation. Le Cloud computing (ou informatique en nuage en français) permet à un utilisateur d’exploiter des ressources informatiques, de granularités potentiellement très différentes, pendant une durée variable, qui sont à disposition dans un nuage de ressources. L’informatique en nuage doit donc pouvoir s’adapter à la demande et facilement se reconfigurer. Une manière d’atteindre ces objectifs nécessite notamment l’utilisation de machines virtuelles et des techniques de virtualisation associées. Même si la virtualisation de ressources informatiques n’est pas née avec le Cloud, l’avènement du Cloud a considérablement augmenté son utilisation. L’ensemble des fournisseurs d’informatique en nuage s’appuient aujourd’hui sur des machines virtuelles, qui sont beaucoup plus facilement déployables et déplaçables que des machines réelles. Ainsi, s’il est indéniable que l’utilisation de la virtualisation apporte un véritable intérêt pour l’informatique d’aujourd’hui, il est par ailleurs évident que sa mise en oeuvre ajoute une complexité aux systèmes informatiques, complexité à la fois logicielle (gestionnaire de machines virtuelles) et matérielle (nouveaux mécanismes d’assistance à la virtualisation intégrés dans les processeurs). À partir de ce constat, il est légitime de se poser la question de la sécurité informatique dans ce contexte où l’architecture des processeurs devient de plus en plus complexe, avec des modes de plus en plus privilégiés. Étant donné la complexité des systèmes informatiques, l’exploitation de vulnérabilités présentes dans les couches privilégiées ne risque-t-elle pas d’être très sérieuse pour le système global ? Étant donné la présence de plusieurs machines virtuelles, qui ne se font pas mutuellement confiance, au sein d’une même machine physique, est-il possible que l’exploitation d’une vulnérabilité soit réalisée par une machine virtuelle compromise ? N’est-il pas nécessaire d’envisager de nouvelles architectures de sécurité prenant en compte ces risques ? C’est à ces questions que cette thèse propose de répondre. En particulier, nous présentons un panorama des différents problèmes de sécurité dans des environnements virtualisés et des architectures matérielles actuelles. À partir de ce panorama, nous proposons dans nos travaux une architecture originale permettant de s’assurer de l’intégrité d’un logiciel s’exécutant sur un système informatique, quel que soit son niveau de privilège. Cette architecture est basée sur une utilisation mixte de logiciel (un hyperviseur de sécurité développé par nos soins, s’exécutant sur le processeur) et de matériel (un périphérique de confiance, autonome, que nous avons également développé).

Mots-Clés / Keywords
Sécurité; Virtualisation; Hyperviseur; Test d’intégrité; Périphérique; Security; Virtualization; Hypervisors; Integrity checking; Peripherals;

139174
16510
21/11/2016

Contribution à la conception et à la vérification de systèmes temps réel - Focus sur l'ordonnancement temps réel

P.E.HLADIK

VERTICS

Habilitation à diriger des recherches : 21 Novembre 2016, 153p., Président: J.C.FABRE, Rapporteurs: L.GEORGE, E.GROLLEAU, G.LIPARI, Examinateurs: N.NAVET, F.SINGHOFF , N° 16510

Lien : https://hal.archives-ouvertes.fr/tel-01451027

Diffusable

Plus d'informations

Résumé

Cette Habilitation à Diriger les Recherches est l'occasion de présenter mes travaux de recherche sur la conception et la validation des systèmes embarqués critiques. Après une introduction du contexte de recherche, l'exposé se focalisera sur les problématiques de l’ordonnancement temps réel et sur les diverses problématiques que j'ai pu aborder dans ce contexte. Une attention particulière sera portée à la configuration d'architectures avioniques ainsi qu’à l'évaluation des politiques d'ordonnancement multiprocesseur pour l'automobile. L’exposé se conclura sur les perspectives envisagées pour poursuivre ces travaux et les étendre à la génération d’exécutable temporellement fiable.

Mots-Clés / Keywords
Conception; Ordonnancement; Système embarqué; Temps réel; Validation;

138933
16391
17/11/2016

Inférence et modèles de données personnelles : mobilité sociale, proximité spatiale

R.PASQUA

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 17 Novembre 2016, 96p., Président: J.MOTHE, Rapporteurs: C.MAGNIEN, R.BALDONI, Examinateurs: S.BEN MOKHTAR, Directeurs de thèse: M.KAANICHE, G.TREDAN , N° 16391

Lien : https://hal.laas.fr/tel-01416982

Diffusable

Plus d'informations

Abstract

The wide diffusion of smart portable devices allows the collection of a big amount of data concerning the activities of users from mobile apps. We focus our attention on location data, i.e. mobility traces, of a set of users in a crowd. Data collected from these mobile systems are studied following two axies : – Mobility models are used to simulate the behavior of users to develop opportunistic forwarding algorithms. We compare real and synthetic mobility traces to show the distance between the reality and the models. – Information on mobility may endanger the privacy of users. We analyze the impact of such information on privacy of users. The main contributions are : – We analyze the spatial and social properties of human motion from real traces collected by a highly accurate experimental localization system. – We compare the real traces with synthetic mobility traces generated from seven popular mobility models – We provide an inference algorithm based on co-location of users and we show its efficiency on different datasets. – We quantify the effect of probabilistic co-location information by means of a novel colocation attack.

Résumé

La diffusion massive de dispositifs portables, de plus en plus utilisés pour le traitement et la communication de l’information, permet la collecte d’importantes masses de données liées à l’activité des utilisateurs sur des applications mobiles. Nous nous intéressons aux données de localisation (les traces de mobilité) qui sont issues de systèmes mobiles formés par un groupe d’utilisateurs. Les données de mobilité produites dans un système mobile sont étudiées suivant deux axes : – L’utilisation des modèles de mobilité est à la base du développement d’algorithmes de communication dédiés au systèmes mobiles. Les données de mobilité réelles concernant les utilisateurs vont nous permettre de comparer les données de mobilité synthétiques utilisées dans la simulation avec la réalité qu’ils sont censés décrire. – La manipulation des données de mobilité réelles implique une réflexion sur les conséquences que les informations extraites de ces données ont relativement à la protection de la vie privée des utilisateurs. Les contributions sur ces deux fronts sont les suivantes : – Une analyse fine des propriétés spatiales et sociales d’un ensemble de traces de mobilité réelles collecté expérimentalement à l’aide d’une plateforme à haute precision. – Une comparaison exploratoire entre des traces de mobilité réelles et des traces de mobilité synthétiques générées à partir de sept différents modèle de mobilité. – La conception et l’analyse d’un algorithme d’inférence par co-localisation décorrélée des informations sur la localisation des utilisateurs ciblés. – La quantification du potentiel des données de co-localisation non-déterministes sur la perte de protection de la vie privée d’un ensemble d’utilisateurs.

Mots-Clés / Keywords
Systèmes mobiles; Systèmes distribués; Modèles de mobilité; Exploration des données; Réseaux sociaux; Protection de la vie privée; Mobile systems; Distributed systems; Mobility models; Data mining; Social network; Privacy;

138215
16307
26/09/2016

Simulation product fidelity: A qualitative & quantitative system engineering approach

S.PONNUSAMY

ISI

Doctorat : Université de Toulouse III - Paul Sabatier, 26 Septembre 2016, 192p., Président: A.NKESTA, Rapporteurs: G.WAINER, A.HADJALI, Examinateurs: M.PANTEL, H.VANGHELUWE, Directeurs de thèse: V.ALBERT , N° 16307

Lien : https://hal.laas.fr/tel-01376060

Diffusable

Plus d'informations

Résumé

La modélisation informatique et la simulation sont des activités de plus en plus répandues lors de la conception de systèmes complexes et critiques tels que ceux embarqués dans les avions. Les décisions prises sur la conception de ces systèmes à partir des moyens de simulation doivent être sûres. L’étude a exploré le domaine large variant de moins formelle théorie d’ingénieur de system utilisant ontologies à plus formelle théorie de simulation. Les travaux réalisés sont développement et validation d’ontologie et formalisation de théorie d’inclusion entre domaine de simulation et domaine d’utilisation, définir et développer des méthodes semi-automatiques utilisant de ontologie de Modélisation et Simulation pour identifier et sélectionner une abstraction consistent par rapport aux objectives de simulation, formalisation et raffinement de théorie de relation de simulation et approximatif pour identifier les abstractions des systèmes des transitions avec des ensembles d’états et d’actions finis et approximativement équivalent par rapport aux niveaux de fidélité désiré par le utilisateur de simulation, développement des outils permettant évaluation de fidélité, appliquer la méthode et démontrer la preuve de concept sur des cas d’application fournis par l’entreprise.

Abstract

In using Modeling and Simulation for the system Verification & Validation activities, often the difficulty is finding and implementing consistent abstractions to model the system being simulated with respect to the simulation requirements. A proposition for the unified design and implementation of modeling abstractions consistent with the simulation objectives based on the computer science, control and system engineering concepts is presented. It addresses two fundamental problems of fidelity in simulation, namely, for a given system specification and some properties of interest, how to extract modeling abstractions to define a simulation product architecture and how far does the behaviour of the simulation model represents the system specification. A general notion of this simulation fidelity, both architectural and behavioural, in system verification and validation is explained in the established notions of the experimental frame and discussed in the context of modeling abstractions and inclusion relations. A semi-formal ontology based domain model approach to build and define the simulation product architecture is proposed with a real industrial scale study. A formal approach based on game theoretic quantitative system refinement notions is proposed for different class of system and simulation models with a prototype tool development and case studies. Challenges in research and implementation of this formal and semi-formal fidelity framework especially in an industrial context are discussed.

137613
16214
15/02/2016

Improving cooperation between systems engineering and project management in engineering projects - Towards the alignment of systems engineering and project management standards and guides

R.XUE

ISI

Doctorat : INSA de Toulouse, Février 2016, 135p., Président: B.EYNARD, Rapporteurs: E.BONJOUR, J.YANG, Examinateurs: , Directeurs de thèse: C.BARON, P.ESTEBAN , N° 16214

Lien : https://hal.laas.fr/tel-01376031

Diffusable

Plus d'informations

Abstract

In a highly competitive economic context, companies need to improve their performance in entire life cycle of a product. It is often found that company organization leads to segregation between systems engineering and project management, with the result that decision-making is sometimes misguided and may compromise project execution, whereas, although they each have specific visions and targets, these disciplines are nonetheless intended to serve a common objective, which is to satisfy the customer. So it is an important issue to facilitate their adoption and their joint deployment within the company, in order to improve decision-making in engineering projects. The proposal of the thesis involves bringing systems engineering and project management closer together in order to help both systems engineers and project managers assess the project progress. Based on this assessment, they can adjust the project policy dynamically through the project life cycle. In this thesis, we first harmonize the standards and guides from systems engineering and project management domains and define an integrated process groups organized into 3 groups of processes. Then we identify a set of key indicators related to these process groups, indicators are then valuated and give the evaluation of the indicator based on the analytic hierarchy process method to integrate the views of systems engineers and project managers in an additional way. On the basis of these indicators, we use the critical path method and earned value management method to assess the project progress values and define two project indexes to assess and insight the project progress easier.

Résumé

L’ingénierie système et le management de projet sont deux disciplines essentielles dans l'industrie, et représentent deux facteurs essentiels pour la réussite des projets. Cependant, depuis de nombreuses années, s’est établie une barrière culturelle entre les praticiens de l'ingénierie des systèmes et ceux de la gestion de projet. Alors que l'ingénierie des systèmes s’intéresse aux éléments techniques, le management de projet a la responsabilité globale du projet ; de ce fait, certains considèrent que leurs activités sont indépendantes plutôt que de les considérer comme des parties d’un tout. Par conséquent, le travail coûte souvent plus, prend plus de temps, et fournit une solution non optimale pour le client. Alors comment faire pour supprimer les barrières entre les différentes équipes, les pratiques et les connaissances, afin de prendre les décisions dans le projet sur la base des vues intégrées de ces parties prenantes ? La réponse à cette question est essentielle pour assurer le succès du projet et améliorer la performance en entreprise. Cette thèse se place à l'intersection de plusieurs disciplines, notamment l’ingénierie système et le management de projet. Elle promeut le développement collaboratif de systèmes multi-technologies et la prise de décision partagée entre les parties prenantes. Notre premier objectif porte sur l'harmonisation des descriptions des processus du management de projet et d'ingénierie des systèmes sur la base des normes et guides de bonnes pratiques internationaux. Notre proposition est d'élaborer un cadre de processus fondamentaux et alignés pour supporter le management des processus d’ingénierie système qui peut être adapté à des entreprises de profils différents (PME, ETI ou grands groupes). Pour cela, nous comparons les cinq normes et guides d'ingénierie des systèmes (ANSI/EIA 632, ISO/IEC 15288, IEEE 1220, INCOSE Handbook et Sebok) et les trois normes et guides de gestion de projets (PMBoK, ISO 21500, ISO/IEC 29110) afin d'évaluer la cohérence de ces documents de référence en ce qui concerne les processus qu'ils décrivent et qui sont impliqués dans l'ensemble du projet. Au-delà de l'intégration des pratiques par l'utilisation de ce cadre, nous offrons aussi aux ingénieurs systèmes et managers un ensemble d'indicateurs qu'ils peuvent partager afin de faciliter la coopération entre eux et leur permettre une prise de décision collaboration dans le suivi et le pilotage des projets. Les indicateurs sont évalués à la fois par les ingénieurs systèmes et les managers et leur importance est décidée collaborativement à l’aide d’une méthode multicritère d’aide à la décision (AHP). Ensuite, sur la base des valeurs des indicateurs, les méthodes du chemin critique (CPM) et de gestion adaptative de la valeur acquise (EVM) sont utilisées pour évaluer l’avancement du projet et du développement du système. Quatre indices sont ainsi définis pour supporter le processus de prise de décision tout au long du projet afin de permettre la prise de décisions collaborative et de rendre celle-ci plus rationnelle.

Mots-Clés / Keywords
Decision support system; Engineering design process; Project management; Systems engineering;

137167
16031
13/01/2016

Approche d'intégrité bout en bout pour les communications dans les systèmes embarqués critiques : application aux systèmes de commande de vol d'hélicoptères

A.ZAMMALI

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 13 Janvier 2016, 148p., Président: L.ENGHEL, Rapporteurs: S.COLLART-DUTILLEUL, P.J.GIL VICENTE, Examinateurs: J.P.BLANQUART, P.IZZO, Y.LABIT, Directeurs de thèse: A.DE BONNEVAL, Y.CROUZET , N° 16031

Lien : https://tel.archives-ouvertes.fr/tel-01285629

Diffusable

Plus d'informations

Résumé

Dans les systèmes embarqués critiques, assurer la sûreté de fonctionnement est primordial du fait, à la fois, des exigences en sûreté dictées par les autorités de certification et des contraintes en sûreté de ces systèmes où des défaillances pourraient conduire à des évènements catastrophiques, voire la perte de vies humaines. Les architectures de ces systèmes sont aujourd’hui de plus en plus distribuées, s’appuyant sur des réseaux numériques complexes, ce qui pose la problématique de l’intégrité des communications. Dans ce contexte, nous proposons une approche bout en bout pour l’intégrité des communications, basée sur le concept du « canal noir » introduit par l’IEC 61508. Elle utilise les codes détecteurs d'erreurs CRC, Adler et Fletcher. Selon le niveau de redondance des systèmes, nous proposons une approche multi-codes (intégrité jugée sur un lot de messages) pour les systèmes dotés d’un niveau de redondance important et une approche mono-code (intégrité jugée sur chaque message) pour les autres cas. Nous avons validé ces propositions par des expérimentations évaluant le pouvoir de détection intrinsèque de chaque code détecteur et la complémentarité entre ces code en termes de pouvoir de détection, ainsi que leurs coûts de calcul avec une analyse de l’impact du type de leur implémentation et de l’environnement matériel (standard et embarqué : processeurs i7, STM32, TMS320C6657 et P2020). L’approche mono-code a été appliquée à un cas d’étude industriel : les futurs systèmes de commande de vol d’Airbus Helicopters.

Abstract

In critical embedded systems, ensuring dependability is crucial given both dependability requirements imposed by certification authorities and dependability constraints of these systems where failures could lead to catastrophic events even loss of human lives. The architectures of these systems are increasingly distributed deploying complex digital networks which raise the issue of communication integrity. In this context, we propose an end to end approach for communication integrity. This approach is based on the “black channel” concept introduced by IEC 61508. It uses error detection codes particularly CRC, Adler and Fletcher. Depending on the redundancy level of targeted systems, we propose a multi-codes approach (integrity of a set of messages) for systems with an important redundancy level and a singlecode approach (integrity per message) for the other cases. We validated our proposals through experiments in order to evaluate intrinsic error detection capability of each error detection code, their complementarity in terms of error detection and their computational costs by analyzing the impact of the type of implementation and the hardware environment (standard or embedded: i7, STM32, TMS320C6657 and P2020 processors). The single-code approach was applied to an industrial case study: future flight control systems of Airbus Helicopters.

Mots-Clés / Keywords
Systèmes embarqués critiques; Réseaux de communication numériques; Sûreté de fonctionnement; Intégrité des communications; Intégrité bout en bout; Codes détecteurs d’erreurs; Systèmes de commande de vol; Critical embedded systems; Dependability; Communication integrity; Digital networks; End to end integrity; Error detection codes; Flight control systems;

136273
15670
08/12/2015

Trusting Robots - Contributions to dependable autonomous collaborative robotic systems. Vers des robots collaboratifs autonomes sûrs de fonctionnement

J.GUIOCHET

TSF

Habilitation à diriger des recherches : 8 Décembre 2015, 147p., Président: M.P.GLEIZES, Rapporteurs: J.MALENFANT, W.SCHON, J.M.THIRIET, Examinateurs: C.PECHEUR, D.POWELL, Parrain: M.KAANICHE , N° 15670

Diffusable

Plus d'informations

Résumé

Ce manuscript d’Habilitation à Diriger des Recherches (HDR) présente les travaux menés par Jérémie Guiochet au LAAS-CNRS au sein de l’équipe Tolérance aux Fautes et Sûreté de fonctionnement informatique (TSF). Ces travaux se sont principalement articulés autour de la problématique de la sûreté de fonctionnement des systèmes robotique collaboratifs autonomes. Les spécificités de ces systèmes, notamment les interactions physiques humain-robot et la présence d’incertitudes liées aux mécanismes de perception ou de décision, font que les méthodes de sûreté de fonctionnement ou d’analyse du risque utilisées pour les systèmes critiques doivent être reconsidérées. Les principales contributions se concentrent sur deux axes : les méthodes d’analyse de la sécurité-innocuité pour des systèmes robotique collaboratifs (Identification des dangers avec HAZOP-UML et évaluation quantitative de la confiance dans un argumentaire de sécurité de type safety case), et les mécanismes de tolérance aux fautes pour des systèmes robotique autonomes (planification redondante et synthèse de règles de sécurité vérifiables en ligne). Ces travaux ouvrent également des perspectives concernant le test des systèmes autonomes dans des mondes virtuels, la gestion des incertitudes pour la certification des robots autonomes en milieu humain, et la surveillance en ligne des différents niveaux d’une architecture logicielle de robot autonome.

Abstract

This manuscript of HDR (Habilitation à Diriger des Recherches, french accreditation to supervise research) presents research work of Jérémie Guiochet carried out at LAAS-CNRS in the Dependable computing and Fault Tolerance (TSF) team. His research work is mainly related to the dependability of collaborative autonomous robotic systems. Specific challenges raised by these systems, including human-system physical interactions and the presence of uncertainties in the perception and decision mechanisms, induce the need to revisit dependability and risk analysis methods. The main contributions address the following topics: safety assessment of collaborative robotic systems (hazard Identification with UML-HAZOP and quantitative assessment of confidence in safety cases), and fault tolerance mechanisms for autonomous robotic systems (redundant planning and synthesis of on-line verifiable safety rules). This manuscript also opens perspectives in the fields of testing of autonomous robots in virtual worlds, uncertainty management for the certification of autonomous robots in human environments, and safety monitoring at different levels in an autonomous software architecture.

Mots-Clés / Keywords
Robot safety; Safety critical autonomous systems; Risk analysis; Fault tolerance; Safety case; Confidence assessment; Sûreté de fonctionnement; Sécurité des robots; Systèmes autonomes critiques; Analyse du risque; Tolérance aux fautes; Dependability; Argumentaire de sécurité; Evaluation de la sécurité;

136279
15675
03/12/2015

Contribution à la modélisation et la vérification formelle par model-checking - Symétries pour les Réseaux de Petri Temporels

P.A.BOURDIL

VERTICS

Doctorat : INSA de Toulouse, 3 Décembre 2015, 148p., Président: J.P.BODEVEIX, Rapporteurs: B.BERARD, P.MOREAUX, Examinateurs: E.JENN, D.LIME, L.PETRUCCI, Directeurs de thèse: F.VERNADAT, B.BERTHOMIEU , N° 15675

Lien : https://tel.archives-ouvertes.fr/tel-01291834

Diffusable

Plus d'informations

Abstract

This thesis deals with formal verification of critical systems where the system’s correction depends on compliance with time constraints. The first part studies the formal modeling and verification by model-checking of realtime systems in the context of the aerospace industry. The second part describes our method for symmetry reduction of Time Petri Net. We define a symmetric composition operator for building Net. Then we present our solution for construction of quotients of the state spaces by the equivalence relation induced by symmetries. Our method applies to Petri nets, temporal or not, but to our knowledge this is the first methodology for Time Petri Nets. Encouraging experimental results are presented.

Résumé

Cette thèse traite de la vérification formelle de systèmes critiques où la correction du système dépend du respect des contraintes temporelles. La première partie étudie la modélisation et la vérification formelle par model-checking de systèmes temps réel dans le contexte de l’industrie aéronautique et spatiale. La deuxième partie décrit notre méthode d’exploitation des symétries pour les réseaux de Petri temporels. Nous définissons un opérateur de composition symétrique pour la construction de réseaux. Puis nous proposons des solutions pour la construction d’espaces d’états quotients par la relation d’équivalence induite par les symétries. Notre méthode s’applique aux réseaux de Petri, temporels ou non. A notre connaissance il s’agit de la première méthode applicable aux réseaux de Petri temporels. Des résultats expérimentaux encourageants sont présentés.

136309
15572
17/11/2015

Test de systèmes ubiquitaires avec prise en compte explicite de la mobilité.

P.ANDRE

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, Novembre 2015, 131p., Président: T.GAYRAUD, Rapporteurs: A.R.CAVALLI, F.TAÎANI, Examinateurs: O.ALPHAND, , Directeurs de thèse: H.WAESELYNCK, N.RIVIERE , N° 15572

Lien : https://tel.archives-ouvertes.fr/tel-01261593

Diffusable

Plus d'informations

Abstract

The main objective of this thesis is to contribute to elaborating a mobile system test method. The proposed approach is based on test definition using scenarios and their verification on an execution trace. A scenario modelizes the behavior and the interactions we want to achieve on a set of nodes. Considering the characteristics of mobile systems we represented scenarios from two different but complementary points of view. The first represents communication events between nodes and the second represents the link topology between the nodes. Our approach is composed of two steps : a first step to specify the test cases by using scenarios and a second step to verify these scenarios on execution flows. The first step consists in using the dedicated TERMOS language in order to specify the test cases of the mobile application. The TERMOS language has been developed in the UML Papyrus workshop. Based on the graphically defined scenarios, we generate an automaton for each one of them, as well as a sequence of topologies which we will be using in the next step. The second step consists in verifying each scenario by using execution traces from the application to be tested. Therefore a first tool detects scenario topology sequences in the execution flow. For each one of them the automaton is executed and comes out with a verdict. The analysis of all the verdicts of a scenario allows the detection of faults in the system.

Résumé

L’objectif de cette thèse est de contribuer à l’élaboration d’une méthode de test de systèmes mobiles. L’approche développée est fondée sur la description de tests à l’aide de scénarios et leurs vérifications sur une trace d’exécution. Un scénario modélise le comportement et les interactions que l’on souhaite observer entre un ensemble de noeuds. Les caractéristiques des systèmes mobiles nous ont conduit à représenter un scénario sous deux points de vue différents et complémentaires. Un premier représente des événements de communications entre les noeuds et un second représente la topologie des liens entre ces noeuds. Notre approche est décomposée en deux étapes : une étape de spécification des cas de tests à l’aide de scénarios et une étape de vérification de ces scénarios sur des traces d’exécutions. La première consiste à spécifier à l’aide du langage dédié TERMOS les cas de test de l’application mobile à vérifier. Ce langage TERMOS a été mis en oeuvre au sein de l’atelier UML Papyrus. À partir des scénarios décrits de manière graphique, nous générons pour chacun d’eux un automate ainsi qu’une séquence de topologie que nous utilisons dans l’étape suivante. La deuxième étape consiste à vérifier chaque scénario sur des traces d’exécutions provenant de l’application à tester. Pour cela un premier outil recherche les occurrences de la séquence de topologie du scénario dans la trace d’exécution. Pour chacune d’entre elles, l’automate est exécuté et conclut à un verdict. L’analyse de l’ensemble des verdicts d’un scénario permet de détecter les fautes présentes dans le système.

Mots-Clés / Keywords
Systèmes informatiques mobiles; Tests à base de scénarios; Sensibilité au contexte; Software testing; Mobile computing systems; Scenarios based testing; Context aware; Test logiciel;

135899
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/