Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

94documents trouvés

18050
24/01/2018

Technologies respectueuses de la vie privée pour le covoiturage. Privacy-Enhancing Technologies for Ridesharing

U.M.AIVODJI

TSF, ROC

Doctorat : Université de Toulouse III - Paul Sabatier, 24 Janvier 2018, 142p., Président: B.NGUYEN, Rapporteurs: J.DOMINGO-FERRER, D.FEILLET, Examinateurs: C.BRIAND, F.FESSANT, B.LE CUN, Directeurs de thèse: M.O.KILLIJIAN, M.J.HUGUET , N° 18050

Lien : https://hal.laas.fr/tel-01735575

Diffusable

Plus d'informations

Résumé

L’émergence des téléphones mobiles et objets connectés a profondément changé notre vie quotidienne. Ces dispositifs, grâce à la multitude de capteurs qu’ils em- barquent, permettent l’accès à un large spectre de services. En particulier, les capteurs de position ont contribué au développent des services de localisation tels que la navigation, le covoiturage, le suivi de la congestion en temps réel. . . En dépit du confort offert par ces services, la collecte et le traitement des données de localisation portent de sérieuses atteintes à la vie privée des utilisateurs. En effet, ces données peuvent renseigner les fournisseurs de services sur les points d’intérêt (domicile, lieu de travail, orientation sexuelle), les habitudes ainsi que le réseau social des utilisateurs. D’une façon générale, la protection de la vie privée des utilisateurs peut être assurée par des dispositions légales ou techniques. Même si les mesures d’ordre légal peuvent dissuader les fournisseurs de services et les individus malveillants à enfreindre le droit à la vie privée des utilisateurs, les effets de telles mesures ne sont observables que lorsque l’infraction est déjà commise et détectée. En revanche, l’utilisation des technologies renforçant la protection de la vie privée (PET pour Privacy Enhancing Technologies) dès la phase de conception des systèmes permet de réduire le taux de réussite des attaques contre la vie privée des utilisateurs. L’objectif principal de cette thèse est de montrer la viabilité de l’utilisation des PET comme moyens de protection des données de localisation dans les services de covoiturage. Ce type de service de localisation, en aidant les conducteurs à partager les sièges vides dans les véhicules, contribue à réduire les problèmes de congestion, d’émissions et de dépendance aux combustibles fossiles. Dans cette thèse, nous étudions les problèmes de synchronisation d’itinéraires et d’appariement relatifs au covoiturage avec une prise en compte explicite des contraintes de protection des données de localisation (origine, destination). Les solutions proposées dans cette thèse combinent des algorithmes de calcul d’itinéraires multimodaux avec plusieurs techniques de protection de la vie privée telles que le chiffrement homomorphe, l’intersection sécurisée d’ensembles, le secret partagé, la comparaison sécurisée dentier. Elles garantissent des propriétés de protection de vie privée comprenant l’anonymat, la non-chainabilité et la minimisation des données. De plus, elles sont comparées à des so- lutions classiques, ne protégeant pas la vie privée. Nos expérimentations indiquent que les contraintes de protection des données privées peuvent être prise en compte dans les services de covoiturage sans dégrader leurs performances.

Abstract

The emergence of mobile phones and connected objects has profoundly changed our daily lives. These devices, thanks to the multitude of sensors they embark, allow access to a broad spectrum of services. In particular, position sensors have contributed to the development of location-based services such as navigation, ridesharing, real-time congestion tracking. . . Despite the comfort offered by these services, the collection and processing of location data seriously infringe the privacy of users. In fact, these data can inform service providers about points of interests (home, workplace, sexual orientation), habits and social network of the users. In general, the protection of users’ privacy can be ensured by legal or technical provisions. While legal measures may discourage service providers and malicious individuals from infringing users’ privacy rights, the effects of such measures are only observable when the offense is already committed and detected. On the other hand, the use of privacy-enhancing technologies (PET) from the design phase of systems can reduce the success rate of attacks on the privacy of users. The main objective of this thesis is to demonstrate the viability of the usage of PET as a means of location data protection in ridesharing services. This type of location-based ser- vice, by allowing drivers to share empty seats in vehicles, helps in reducing congestion, CO2 emissions and dependence on fossil fuels. In this thesis, we study the problems of synchro- nization of itineraries and matching in the ridesharing context, with an explicit consideration of location data (origin, destination) protection constraints. The solutions proposed in this thesis combine multimodal routing algorithms with sev- eral privacy-enhancing technologies such as homomorphic encryption, private set intersection, secret sharing, secure comparison of integers. They guarantee privacy properties including anonymity, unlinkability, and data minimization. In addition, they are compared to conven- tional solutions, which do not protect privacy. Our experiments indicate that location data protection constraints can be taken into account in ridesharing services without degrading their performance.

Mots-Clés / Keywords
Privacy; Ridesharing; Privacy enhancing technologies; Vie privée; Covoiturage; Technologies renforçant la vie privée;

142777
16615
13/12/2016

Chiffrement homomorphe appliqué au retrait d'information privé

J.BARRIER

TSF

Doctorat : INSA de Toulouse, 13 Décembre 2016, 96p., Président: P.GABORIT, Rapporteurs: C.FONTAINE, Examinateurs: G.JAKLLARI, M.LAURENT, Directeurs de thèse: M.O.KILLIJIAN, C.AGUILAR MELCHOR , N° 16615

Lien : https://hal.laas.fr/tel-01682332

Diffusable

Plus d'informations

Abstract

Private information retrieval, named PIR, is a set of protocols that is a part of privacy enhancement technologies.Its major feature is to hide the index of a record that a user retrieved from the host.Without neglecting the scientific contributions of its authors, the usability of this protocol seems hard since that, for a user, it seems more and more efficient to receive all the records.Thus far, PIR can be achieved using mutually distrustful databases replicated databases, trusted hardware, or cryptographic systems.We focus on computational private information retrieval, and specifically on thus based on cryptographic systems.This decision is contingent to the spread of cryptographic systems based on lattices who provide specific properties.To demonstrate it usability, we offer an efficient and easy-to-use private Information retrieval based on homomorphic encryption.

Résumé

Le retrait d’information privé que nous nommons PIR, désigne un groupe de protocoles qui s’inscrit dans un ensemble plus vaste des technologies d’amélioration de la vie privée. Sa fonctionnalité principale est de dissimuler l’index d’un élément d’une liste accédée par un client au regard de son hôte. Sans négliger l’appart de leurs auteurs à la communauté scientifique, l’utilisabilité de ce groupe de protocoles semble limitée, car pour un client, télécharger l’intégralité de la liste est plus efficient. À ce jour, les PIR, se fondent sur des serveurs répliqués mutuellement méfiants, des périphériques de confiance ou bien des systèmes cryptographiques. Nous considérerons ici les retraits d’informations privés computationnels et plus particulièrement ceux reposant sur les réseaux euclidiens qui n’offrent des propriétés particulières, comme l’homomorphisme. Afin d’en démontrer l’utilisabilité, nous proposons un retrait d’information privé reposant sur un système cryptographique homomorphe performant et aisé d’utilisation.

Mots-Clés / Keywords
Chiffrement homomorphe; Réseaux euclidiens; Retrait d'information privée; Technologies de renforcement de la vie privée; Vie privée;

141935
16462
13/12/2016

Monitoring et détection d'anomalie par apprentissage dans des infrastructures virtualisées

C.SAUVANAUD

TSF

Doctorat : INSA de Toulouse, 13 Décembre 2016, 174p., Président: E.EXPOSITO, Rapporteurs: S.BOUCHENAK, P.SENS, Examinateurs: K.LAZRI, Directeurs de thèse: M.KAANICHE, K.KANOUN , N° 16462

Lien : https://hal.laas.fr/tel-01445648

Diffusable

Plus d'informations

Abstract

Nowadays, the development of virtualization technologies as well as the development of the Internet contributed to the rise of the cloud computing model. A cloud computing enables the delivery of configurable computing resources while enabling convenient, on-demand network access to these resources. Resources hosted by a provider can be applications, development platforms or infrastructures. Over the past few years, computing systems are characterized by high development speed, parallelism, and the diversity of task to be handled by applications and services. In order to satisfy their Service Level Agreements (SLA) drawn up with users, cloud providers have to handle stringent dependability demands. Ensuring these demands while delivering various services makes clouds dependability a challenging task, especially because providers need to make their services available on demand. This task is all the more challenging that users expect cloud services to be at least as dependable as traditional computing systems. In this manuscript, we address the problem of anomaly detection in cloud services. A detection strategy for clouds should rely on several principal criteria. In particular it should adapt to workload changes and reconfigurations, and at the same time require short configurations durations and adapt to several types of services. Also, it should be performed online and automatic. Finally, such a strategy needs to tackle the detection of different types of anomalies namely errors, preliminary symptoms of SLA violation and SLA violations. We propose a new detection strategy based on system monitoring data. The data is collected online either from the service, or the underlying hypervisor(s) hosting the service. The strategy makes use of machine learning algorithms to classify anomalous behaviors of the service. Three techniques are used, using respectively algorithms with supervised learning, unsupervised learning or using a technique exploiting both types of learning. A new anomaly detection technique is developed based on online clustering, and allowing to handle possible changes in a service behavior. A cloud platform was deployed so as to evaluate the detection performances of our strategy. Moreover a fault injection tool was developed for the sake of two goals : the collection of service observations with anomalies so as to train detection models, and the evaluation of the strategy in presence of anomalies. The evaluation was applied to two case studies : a database management system and a virtual network function. Sensitivity analyzes show that detection performances of our strategy are high for the three anomaly types. The context for the generalization of the results is also discussed.

Résumé

Le cloud computing est un modèle de délivrance à la demande d’un ensemble de ressources informatiques distantes, partagées et configurables. Ces ressources, détenues par un fournisseur de service cloud, sont mutualisées grâce à la virtualisation de serveurs qu’elles composent et sont mises à disposition d’utilisateurs sous forme de services disponibles à la demande. Ces services peuvent être aussi variés que des applications, des plateformes de développement ou bien des infrastructures. Afin de répondre à leurs engagements de niveau de service auprès des utilisateurs, les fournisseurs de cloud se doivent de prendre en compte des exigences différentes de sûreté de fonctionnement. Assurer ces exigences pour des services différents et pour des utilisateurs aux demandes hétérogènes représente un défi pour les fournisseurs, notamment de part leur engagement de service à la demande. Ce défi est d’autant plus important que les utilisateurs demandent à ce que les services rendus soient au moins aussi sûrs de fonctionnement que ceux d’applications traditionnelles. Nos travaux traitent particulièrement de la détection d’anomalies dans les services cloud de type SaaS et PaaS. Les différents types d’anomalie qu’il est possible de détecter sont les erreurs, les symptômes préliminaires de violations de service et les violations de service. Nous nous sommes fixé quatre critères principaux pour la détection d’anomalies dans ces services : i) elle doit s’adapter aux changements de charge de travail et reconfiguration de services ; ii) elle doit se faire en ligne, iii) de manière automatique, iv) et avec un effort de configuration minimum en utilisant possiblement la même technique quel que soit le type de service. Dans nos travaux, nous avons proposé une stratégie de détection qui repose sur le traitement de compteurs de performance et sur des techniques d’apprentissage automatique. La détection utilise les données de performance système collectées en ligne à partir du système d’exploitation hôte ou bien via les hyperviseurs déployés dans le cloud. Concernant le traitement des ces données, nous avons étudié trois types de technique d’apprentissage : supervisé, non supervisé et hybride. Une nouvelle technique de détection reposant sur un algorithme de clustering est de plus proposée. Elle permet de prendre en compte l’évolution de comportement d’un système aussi dynamique qu’un service cloud. Une plateforme de type cloud a été déployée afin d’évaluer les performances de détection de notre stratégie. Un outil d’injection de faute a également été développé dans le but de cette évaluation ainsi que dans le but de collecter des jeux de données pour l’entrainement des modèles d’apprentissage. L’évaluation a été appliquée à deux cas d’étude : un système de gestion de base de données (MongoDB) et une fonction réseau virtualisée. Les résultats obtenus à partir d’analyses de sensibilité, montrent qu’il est possible d’obtenir de très bonnes performances de détection pour les trois types d’anomalies, tout en donnant les contextes adéquats pour la généralisation de ces résultats.

Mots-Clés / Keywords
Apprentissage automatique; Cloud computing; Détection d'anomalie; Injection de fautes; Monitoring; Virtualisation;

138473
16552
06/12/2016

Protection des systèmes informatiques vis à vis des malveillances : un hyperviseur de sécurité assisté par le matériel

B.MORGAN

TSF

Doctorat : INSA de Toulouse, 6 Décembre 2016, 146p., Président: M.KAANICHE, Rapporteurs: M.LAURENT, M.L.POTET, Examinateurs: S.DUVERGER, A.FRANCILLON, J.L.LANET, Directeurs de thèse: V.NICOMETTE, E.ALATA , N° 16552

Lien : https://hal.laas.fr/tel-01499283

Diffusable

Plus d'informations

Abstract

Computer systems are nowadays evolving quickly. The classical model which consists in associating a physical machine to every users is becoming obsolete. Today, computer resources we are using can be distributed any place on the Internet and usual workstations are not systematically physical machines anymore. This fact is enlightening two important phenomenons which are leading the evolution of the usage we make of computers : Cloud computing and hardware virtualization. Cloud computing enables users to exploit computers resources, with a fine grained granularity and a non predefined amount of time, which are available into a cloud of resources. Cloud systems must be able to adapt quickly to a fluctuating demand and being able to reconfigure themselves quickly. One way to reach these goals is dependant of the usage of virtual machines and the associated virtualization techniques. Even if computer resource virtualization has not been introduced by the cloud, the arrival of the cloud substantially increased its usage. Nowadays, all cloud providers are using virtual machines, which are much more deployable and movable than physical machines. Thus, even if we can see that virtualization is a real interest for modern computer science, it is either clear that its implementation is adding complexity to computer systems, both at software and hardware levels. From this observation, it is legitimate to ask the question about computer security in this context, with an increased architecture complexity and more and more privileged execution modes. Given the presence of multiple virtual machines, which do not trust each other, and which are executing in the same physical machine, will a compromised virtual machine be able to exploit one vulnerability ? Isn’t it necessary to consider new security architectures taking these risks into account ? This thesis is trying to answer to these questions. In particular, we are introducing state of the art security issues in virtualized environment of modern architectures. Starting from this work, we are proposing an original architecture ensuring the integrity of a software being executed on a computer system, regardless its privilege level. This architecture is both using software, a security hypervisor, and hardware, a trusted peripheral, we have both designed and implemented.

Résumé

L’utilisation des systèmes informatiques est aujourd’hui en pleine évolution. Le modèle classique qui consiste à associer à chaque utilisateur une machine physique qu’il possède et dont il va exploiter les ressources devient de plus en plus obsolète. Aujourd’hui, les ressources informatiques que l’on utilise peuvent être distribuées n’importe où dans l’Internet et les postes de travail du quotidien ne sont plus systématiquement des machines réelles. Cette constatation met en avant deux phénomènes importants qui sont à l’origine de l’évolution de notre utilisation de l’informatique : le Cloud computing et la virtualisation. Le Cloud computing (ou informatique en nuage en français) permet à un utilisateur d’exploiter des ressources informatiques, de granularités potentiellement très différentes, pendant une durée variable, qui sont à disposition dans un nuage de ressources. L’informatique en nuage doit donc pouvoir s’adapter à la demande et facilement se reconfigurer. Une manière d’atteindre ces objectifs nécessite notamment l’utilisation de machines virtuelles et des techniques de virtualisation associées. Même si la virtualisation de ressources informatiques n’est pas née avec le Cloud, l’avènement du Cloud a considérablement augmenté son utilisation. L’ensemble des fournisseurs d’informatique en nuage s’appuient aujourd’hui sur des machines virtuelles, qui sont beaucoup plus facilement déployables et déplaçables que des machines réelles. Ainsi, s’il est indéniable que l’utilisation de la virtualisation apporte un véritable intérêt pour l’informatique d’aujourd’hui, il est par ailleurs évident que sa mise en oeuvre ajoute une complexité aux systèmes informatiques, complexité à la fois logicielle (gestionnaire de machines virtuelles) et matérielle (nouveaux mécanismes d’assistance à la virtualisation intégrés dans les processeurs). À partir de ce constat, il est légitime de se poser la question de la sécurité informatique dans ce contexte où l’architecture des processeurs devient de plus en plus complexe, avec des modes de plus en plus privilégiés. Étant donné la complexité des systèmes informatiques, l’exploitation de vulnérabilités présentes dans les couches privilégiées ne risque-t-elle pas d’être très sérieuse pour le système global ? Étant donné la présence de plusieurs machines virtuelles, qui ne se font pas mutuellement confiance, au sein d’une même machine physique, est-il possible que l’exploitation d’une vulnérabilité soit réalisée par une machine virtuelle compromise ? N’est-il pas nécessaire d’envisager de nouvelles architectures de sécurité prenant en compte ces risques ? C’est à ces questions que cette thèse propose de répondre. En particulier, nous présentons un panorama des différents problèmes de sécurité dans des environnements virtualisés et des architectures matérielles actuelles. À partir de ce panorama, nous proposons dans nos travaux une architecture originale permettant de s’assurer de l’intégrité d’un logiciel s’exécutant sur un système informatique, quel que soit son niveau de privilège. Cette architecture est basée sur une utilisation mixte de logiciel (un hyperviseur de sécurité développé par nos soins, s’exécutant sur le processeur) et de matériel (un périphérique de confiance, autonome, que nous avons également développé).

Mots-Clés / Keywords
Sécurité; Virtualisation; Hyperviseur; Test d’intégrité; Périphérique; Security; Virtualization; Hypervisors; Integrity checking; Peripherals;

139174
16391
17/11/2016

Inférence et modèles de données personnelles : mobilité sociale, proximité spatiale

R.PASQUA

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 17 Novembre 2016, 96p., Président: J.MOTHE, Rapporteurs: C.MAGNIEN, R.BALDONI, Examinateurs: S.BEN MOKHTAR, Directeurs de thèse: M.KAANICHE, G.TREDAN , N° 16391

Lien : https://hal.laas.fr/tel-01416982

Diffusable

Plus d'informations

Abstract

The wide diffusion of smart portable devices allows the collection of a big amount of data concerning the activities of users from mobile apps. We focus our attention on location data, i.e. mobility traces, of a set of users in a crowd. Data collected from these mobile systems are studied following two axies : – Mobility models are used to simulate the behavior of users to develop opportunistic forwarding algorithms. We compare real and synthetic mobility traces to show the distance between the reality and the models. – Information on mobility may endanger the privacy of users. We analyze the impact of such information on privacy of users. The main contributions are : – We analyze the spatial and social properties of human motion from real traces collected by a highly accurate experimental localization system. – We compare the real traces with synthetic mobility traces generated from seven popular mobility models – We provide an inference algorithm based on co-location of users and we show its efficiency on different datasets. – We quantify the effect of probabilistic co-location information by means of a novel colocation attack.

Résumé

La diffusion massive de dispositifs portables, de plus en plus utilisés pour le traitement et la communication de l’information, permet la collecte d’importantes masses de données liées à l’activité des utilisateurs sur des applications mobiles. Nous nous intéressons aux données de localisation (les traces de mobilité) qui sont issues de systèmes mobiles formés par un groupe d’utilisateurs. Les données de mobilité produites dans un système mobile sont étudiées suivant deux axes : – L’utilisation des modèles de mobilité est à la base du développement d’algorithmes de communication dédiés au systèmes mobiles. Les données de mobilité réelles concernant les utilisateurs vont nous permettre de comparer les données de mobilité synthétiques utilisées dans la simulation avec la réalité qu’ils sont censés décrire. – La manipulation des données de mobilité réelles implique une réflexion sur les conséquences que les informations extraites de ces données ont relativement à la protection de la vie privée des utilisateurs. Les contributions sur ces deux fronts sont les suivantes : – Une analyse fine des propriétés spatiales et sociales d’un ensemble de traces de mobilité réelles collecté expérimentalement à l’aide d’une plateforme à haute precision. – Une comparaison exploratoire entre des traces de mobilité réelles et des traces de mobilité synthétiques générées à partir de sept différents modèle de mobilité. – La conception et l’analyse d’un algorithme d’inférence par co-localisation décorrélée des informations sur la localisation des utilisateurs ciblés. – La quantification du potentiel des données de co-localisation non-déterministes sur la perte de protection de la vie privée d’un ensemble d’utilisateurs.

Mots-Clés / Keywords
Systèmes mobiles; Systèmes distribués; Modèles de mobilité; Exploration des données; Réseaux sociaux; Protection de la vie privée; Mobile systems; Distributed systems; Mobility models; Data mining; Social network; Privacy;

138215
16031
13/01/2016

Approche d'intégrité bout en bout pour les communications dans les systèmes embarqués critiques : application aux systèmes de commande de vol d'hélicoptères

A.ZAMMALI

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 13 Janvier 2016, 148p., Président: L.ENGHEL, Rapporteurs: S.COLLART-DUTILLEUL, P.J.GIL VICENTE, Examinateurs: J.P.BLANQUART, P.IZZO, Y.LABIT, Directeurs de thèse: A.DE BONNEVAL, Y.CROUZET , N° 16031

Lien : https://tel.archives-ouvertes.fr/tel-01285629

Diffusable

Plus d'informations

Résumé

Dans les systèmes embarqués critiques, assurer la sûreté de fonctionnement est primordial du fait, à la fois, des exigences en sûreté dictées par les autorités de certification et des contraintes en sûreté de ces systèmes où des défaillances pourraient conduire à des évènements catastrophiques, voire la perte de vies humaines. Les architectures de ces systèmes sont aujourd’hui de plus en plus distribuées, s’appuyant sur des réseaux numériques complexes, ce qui pose la problématique de l’intégrité des communications. Dans ce contexte, nous proposons une approche bout en bout pour l’intégrité des communications, basée sur le concept du « canal noir » introduit par l’IEC 61508. Elle utilise les codes détecteurs d'erreurs CRC, Adler et Fletcher. Selon le niveau de redondance des systèmes, nous proposons une approche multi-codes (intégrité jugée sur un lot de messages) pour les systèmes dotés d’un niveau de redondance important et une approche mono-code (intégrité jugée sur chaque message) pour les autres cas. Nous avons validé ces propositions par des expérimentations évaluant le pouvoir de détection intrinsèque de chaque code détecteur et la complémentarité entre ces code en termes de pouvoir de détection, ainsi que leurs coûts de calcul avec une analyse de l’impact du type de leur implémentation et de l’environnement matériel (standard et embarqué : processeurs i7, STM32, TMS320C6657 et P2020). L’approche mono-code a été appliquée à un cas d’étude industriel : les futurs systèmes de commande de vol d’Airbus Helicopters.

Abstract

In critical embedded systems, ensuring dependability is crucial given both dependability requirements imposed by certification authorities and dependability constraints of these systems where failures could lead to catastrophic events even loss of human lives. The architectures of these systems are increasingly distributed deploying complex digital networks which raise the issue of communication integrity. In this context, we propose an end to end approach for communication integrity. This approach is based on the “black channel” concept introduced by IEC 61508. It uses error detection codes particularly CRC, Adler and Fletcher. Depending on the redundancy level of targeted systems, we propose a multi-codes approach (integrity of a set of messages) for systems with an important redundancy level and a singlecode approach (integrity per message) for the other cases. We validated our proposals through experiments in order to evaluate intrinsic error detection capability of each error detection code, their complementarity in terms of error detection and their computational costs by analyzing the impact of the type of implementation and the hardware environment (standard or embedded: i7, STM32, TMS320C6657 and P2020 processors). The single-code approach was applied to an industrial case study: future flight control systems of Airbus Helicopters.

Mots-Clés / Keywords
Systèmes embarqués critiques; Réseaux de communication numériques; Sûreté de fonctionnement; Intégrité des communications; Intégrité bout en bout; Codes détecteurs d’erreurs; Systèmes de commande de vol; Critical embedded systems; Dependability; Communication integrity; Digital networks; End to end integrity; Error detection codes; Flight control systems;

136273
15670
08/12/2015

Trusting Robots - Contributions to dependable autonomous collaborative robotic systems. Vers des robots collaboratifs autonomes sûrs de fonctionnement

J.GUIOCHET

TSF

Habilitation à diriger des recherches : 8 Décembre 2015, 147p., Président: M.P.GLEIZES, Rapporteurs: J.MALENFANT, W.SCHON, J.M.THIRIET, Examinateurs: C.PECHEUR, D.POWELL, Parrain: M.KAANICHE , N° 15670

Diffusable

Plus d'informations

Résumé

Ce manuscript d’Habilitation à Diriger des Recherches (HDR) présente les travaux menés par Jérémie Guiochet au LAAS-CNRS au sein de l’équipe Tolérance aux Fautes et Sûreté de fonctionnement informatique (TSF). Ces travaux se sont principalement articulés autour de la problématique de la sûreté de fonctionnement des systèmes robotique collaboratifs autonomes. Les spécificités de ces systèmes, notamment les interactions physiques humain-robot et la présence d’incertitudes liées aux mécanismes de perception ou de décision, font que les méthodes de sûreté de fonctionnement ou d’analyse du risque utilisées pour les systèmes critiques doivent être reconsidérées. Les principales contributions se concentrent sur deux axes : les méthodes d’analyse de la sécurité-innocuité pour des systèmes robotique collaboratifs (Identification des dangers avec HAZOP-UML et évaluation quantitative de la confiance dans un argumentaire de sécurité de type safety case), et les mécanismes de tolérance aux fautes pour des systèmes robotique autonomes (planification redondante et synthèse de règles de sécurité vérifiables en ligne). Ces travaux ouvrent également des perspectives concernant le test des systèmes autonomes dans des mondes virtuels, la gestion des incertitudes pour la certification des robots autonomes en milieu humain, et la surveillance en ligne des différents niveaux d’une architecture logicielle de robot autonome.

Abstract

This manuscript of HDR (Habilitation à Diriger des Recherches, french accreditation to supervise research) presents research work of Jérémie Guiochet carried out at LAAS-CNRS in the Dependable computing and Fault Tolerance (TSF) team. His research work is mainly related to the dependability of collaborative autonomous robotic systems. Specific challenges raised by these systems, including human-system physical interactions and the presence of uncertainties in the perception and decision mechanisms, induce the need to revisit dependability and risk analysis methods. The main contributions address the following topics: safety assessment of collaborative robotic systems (hazard Identification with UML-HAZOP and quantitative assessment of confidence in safety cases), and fault tolerance mechanisms for autonomous robotic systems (redundant planning and synthesis of on-line verifiable safety rules). This manuscript also opens perspectives in the fields of testing of autonomous robots in virtual worlds, uncertainty management for the certification of autonomous robots in human environments, and safety monitoring at different levels in an autonomous software architecture.

Mots-Clés / Keywords
Robot safety; Safety critical autonomous systems; Risk analysis; Fault tolerance; Safety case; Confidence assessment; Sûreté de fonctionnement; Sécurité des robots; Systèmes autonomes critiques; Analyse du risque; Tolérance aux fautes; Dependability; Argumentaire de sécurité; Evaluation de la sécurité;

136279
15572
17/11/2015

Test de systèmes ubiquitaires avec prise en compte explicite de la mobilité.

P.ANDRE

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, Novembre 2015, 131p., Président: T.GAYRAUD, Rapporteurs: A.R.CAVALLI, F.TAÎANI, Examinateurs: O.ALPHAND, , Directeurs de thèse: H.WAESELYNCK, N.RIVIERE , N° 15572

Lien : https://tel.archives-ouvertes.fr/tel-01261593

Diffusable

Plus d'informations

Abstract

The main objective of this thesis is to contribute to elaborating a mobile system test method. The proposed approach is based on test definition using scenarios and their verification on an execution trace. A scenario modelizes the behavior and the interactions we want to achieve on a set of nodes. Considering the characteristics of mobile systems we represented scenarios from two different but complementary points of view. The first represents communication events between nodes and the second represents the link topology between the nodes. Our approach is composed of two steps : a first step to specify the test cases by using scenarios and a second step to verify these scenarios on execution flows. The first step consists in using the dedicated TERMOS language in order to specify the test cases of the mobile application. The TERMOS language has been developed in the UML Papyrus workshop. Based on the graphically defined scenarios, we generate an automaton for each one of them, as well as a sequence of topologies which we will be using in the next step. The second step consists in verifying each scenario by using execution traces from the application to be tested. Therefore a first tool detects scenario topology sequences in the execution flow. For each one of them the automaton is executed and comes out with a verdict. The analysis of all the verdicts of a scenario allows the detection of faults in the system.

Résumé

L’objectif de cette thèse est de contribuer à l’élaboration d’une méthode de test de systèmes mobiles. L’approche développée est fondée sur la description de tests à l’aide de scénarios et leurs vérifications sur une trace d’exécution. Un scénario modélise le comportement et les interactions que l’on souhaite observer entre un ensemble de noeuds. Les caractéristiques des systèmes mobiles nous ont conduit à représenter un scénario sous deux points de vue différents et complémentaires. Un premier représente des événements de communications entre les noeuds et un second représente la topologie des liens entre ces noeuds. Notre approche est décomposée en deux étapes : une étape de spécification des cas de tests à l’aide de scénarios et une étape de vérification de ces scénarios sur des traces d’exécutions. La première consiste à spécifier à l’aide du langage dédié TERMOS les cas de test de l’application mobile à vérifier. Ce langage TERMOS a été mis en oeuvre au sein de l’atelier UML Papyrus. À partir des scénarios décrits de manière graphique, nous générons pour chacun d’eux un automate ainsi qu’une séquence de topologie que nous utilisons dans l’étape suivante. La deuxième étape consiste à vérifier chaque scénario sur des traces d’exécutions provenant de l’application à tester. Pour cela un premier outil recherche les occurrences de la séquence de topologie du scénario dans la trace d’exécution. Pour chacune d’entre elles, l’automate est exécuté et conclut à un verdict. L’analyse de l’ensemble des verdicts d’un scénario permet de détecter les fautes présentes dans le système.

Mots-Clés / Keywords
Systèmes informatiques mobiles; Tests à base de scénarios; Sensibilité au contexte; Software testing; Mobile computing systems; Scenarios based testing; Context aware; Test logiciel;

135899
15457
12/11/2015

Synthèse de règles de sécurité pour des systèmes autonomes critiques

M.MACHIN

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 12 Novembre 2015, 117p., Président: C.BRIAND, Rapporteurs: J.M.THIRIET, C.PECHEUR, Examinateurs: A.ROLLET, R.ERIC, Directeurs de thèse: H.WAESELYNCK, J.GUIOCHET, Co-encadrant de thèse: J.P.BLANQUART , N° 15457

Lien : https://tel.archives-ouvertes.fr/tel-01241430

Diffusable

Plus d'informations

Abstract

Autonomous systems operating in the vicinity of humans are critical in that they potentially harm humans. In these systems, fault removal is not sucient given the command complexity and their interactions with an unstructured environment. By a fault tolerance approach, we consider a safety monitor separated from the main command and able to observe and intervene on the system. The monitor behavior is specified by safety rules that must both ensure safety and permit the system to carry out its tasks in absence of hazard.We propose a systematic method to obtain these safety rules. The hazards, determined by a risk analysis, are formally modeled, then an algorithm synthesizes safe and permissive rules, if any exists. The method is tooled both for modeling and synthesis by use of the model-checker NuSMV. Method and tools are applied to the industrial use case of a robotic co-worker.

Résumé

Les systèmes autonomes, notamment ceux opérant à proximité d’êtres humains, soulèvent des problèmes de sécurité-innocuité puisqu’ils peuvent causer des blessures. La complexité de la commande de ces systèmes, ainsi que leurs interactions avec un environnement peu structuré, rendent dicile l’élimination complète des fautes. Nous adoptons donc une démarche de tolérance aux fautes en considérant un moniteur de sécurité séparé de la commande principale et qui dispose de ses propres moyens d’observation et d’intervention. Le comportement de ce moniteur est régi par des règles qui doivent assurer la sécurité du système tout en lui permettant de remplir ses fonctions. Nous proposons une méthode systématique pour obtenir ces règles de sécurité. Les dangers, déterminés par une analyse de risque, sont modélisés formellement puis un algorithme synthétise des règles sûres et permissives, s’il en existe. Nous avons outillé cette méthode pour les étapes de modélisation et de synthèse en nous appuyant sur l’outil de vérification de modèle NuSMV. L’étude d’un cas industriel illustre l’application de la méthode et des outils sur un robot manufacturier dans un environnement humain.

Mots-Clés / Keywords
Moniteur de sécurité; Règle de sécurité; Systèmes autonomes; Tolérance aux fautes; Vérification; Synthèse; Safety monitor; Safety rules; Autonomous systems; Fault tolerance; Verification; Synthesis;

135632
15340
25/09/2015

Évaluation et analyse des mécanismes de sécurité des réseaux dans les infrastructures virtuelles de cloud computing

T.PROBST

TSF

Doctorat : INP de Toulouse, 25 Septembre 2015, 121p., Président: V.NICOMETTE, Rapporteurs: H.DEBAR, E.TOTEL, Examinateurs: J.C.CHOUARD, J.P.WARY, Directeurs de thèse: M.KAANICHE, E.ALATA , N° 15340

Lien : https://tel.archives-ouvertes.fr/tel-01216609

Diffusable

Plus d'informations

Résumé

Ces dernières années, le développement d’Internet a contribué à l’essor du modèle cloud computing, dans lesquels des fournisseurs mettent à disposition des clients des ressources informatiques en tant que services. Ces ressources, généralement hébergées chez le fournisseur, peuvent être des infrastructures informatiques, des plateformes de développement et d’exécution ou des applications. L’objectif est de favoriser la réduction des coûts de déploiement et d’opération de ressources traditionnellement hébergées dans les locaux des clients. Dans le modèle de service Infrastructure as a Service, les clients peuvent créer et administrer des infrastructures virtuelles entières hébergeant tout ou une partie de leur système d’information. Aux bénéfices du modèle cloud sont associés des problématiques de sécurité, comme dans tout système informatique réparti. La diversité des acteurs mêlée à la variété des technologies dans le cloud implique un grand nombre de menaces et rend la sécurisation des données complexe. Pour prévenir et détecter les attaques, des mécanismes de sécurité réseau sont déployés dans le cloud. Nous nous intéressons au contrôle d’accès réseau et à la détection d’intrusion réseau, respectivement assurés par les pare-feu et les systèmes de détection d’intrusion. Or, il n’est pas aisé pour les administrateurs de déployer correctement ces outils de sécurité sans perturber le fonctionnement du cloud. Il est donc essentiel de rechercher régulièrement les faiblesses, déviances ou incohérences dans le déploiement de ces outils. Dans ce manuscrit, nous décrivons les travaux de thèse où nous avons proposé une approche pour l’évaluation et l’analyse automatisée des mécanismes de sécurité réseau dans les infrastructures virtuelles de cloud computing. Notre objectif est de permettre l’audit de manière expérimentale des contrôles d’accès réseau et des systèmes de détection d’intrusion réseau protégeant une infrastructure virtuelle donnée. Afin de solutionner les problèmes liés à la mise en oeuvre d’une telle approche, nous l’avons décomposée en trois phases. La première phase consiste à créer une copie de l’infrastructure à analyser, de manière à ne pas perturber la production du client durant les opérations d’audit. La deuxième phase concerne l’analyse des contrôles d’accès, où le but est de déterminer les canaux de communications réseau entre machines virtuelles. Nous permettons de la réaliser statiquement, à partir des informations des configurations, et dynamiquement, en injectant du trafic réseau. L’intérêt de pouvoir mener deux analyses différentes est d’identifier d’éventuelles déviances dans les résultats obtenus. Dans la troisième phase, les canaux de communications trouvés sont utilisés pour exécuter des campagnes d’attaque réseau avec du trafic d’évaluation rejoué à partir de modèles que nous avons définis. La réaction des systèmes de détection d’intrusion est alors étudiée pour générer des métriques d’évaluation. L’approche développée a donné lieu à un prototype pour les solutions cloud VMware. Ce prototype, testé sur une plateforme de maquettage et d’expérimentation, a permis de valider les méthodes conçues dans le cadre de l’approche. Les résultats expérimentaux obtenus sont encourageants et donnent confiance dans l’élaboration de nouvelles extensions et perspectives de recherche.

Abstract

Over the last few years, the development of the Internet contributed to the rise of the cloud computing model, wherein providers offer computing resources as services to clients. These resources, generally hosted by the provider, can be infrastructures, development and execution platforms or applications. The goal is to boost the reduction of the deployment and operation costs of resources traditionally hosted on-premises. In the Infrastructure as a Service (IaaS), clients can create and administrate entire virtual infrastructures hosting their information system or a part of it. Beside the benefits of the cloud model, security concerns arise, as in any distributed computing system. Mixing the diversity of the actors with the variety of technologies in the cloud implies a great number of threats and makes the securing of data more complex. In order to prevent and detect attacks, network security mechanisms are deployed in the cloud. We are interested in network access control and network intrusion detection, respectively carried out by firewalls and intrusion detection systems. It is not yet easy for administrators to correctly deploy security tools while not disturbing the cloud. Therefore, it is essential to look for weaknesses, discrepancies or inconsistencies in their deployment on a regular basis. In this manuscript, we describe the thesis in which we propose an approach for the automated evaluation and analysis of network security mechanisms in cloud computing virtual infrastructures. Our objective is to allow, in an experimental fashion, the audit of network access controls and network intrusion detection systems protecting virtual infrastructures. To work around the problems due to the implementation of such an approach, we divided it in three phases. The first phase consists in creating a copy of the infrastructure to analyze, to avoid disturbing the client’s business during the audit operations. The second phase is about the analysis of access controls, where the goal is to determine network communication paths between the virtual machines. We allow a static analysis, conducted from configuration information, and a dynamic analysis, performed by injecting network traffic. The interest in achieving two different types of analysis is to identify potential discrepancies in the results. In the third phase, the discovered communication paths are utilized to execute network attack campaigns based on evaluation traffic we replay using models we defined. Then, the reaction of intrusion detection systems is studied to generate evaluation metrics. The developed approach resulted in a prototype for VMware cloud solutions. It has been experimented on a mock-up platform in order to validate the methods we designed as part of our approach. The experimental results we obtained are encouraging and build confidence in the elaboration of new extensions and research perspectives.

Mots-Clés / Keywords
Cloud computing; Contrôle d'accès; Détection d'intrusions; Evaluation; Sécurité;

135312
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/