Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

98documents trouvés

18256
07/09/2018

Détection d’attaques sur les équipements d’accès à Internet

G.ROUDIERE

TSF

Doctorat : INSA de Toulouse, 7 Septembre 2018, 115p., Président: F.DEVIENNE, Rapporteurs: K.SALAMATIAN, S.VATON, Examinateurs: P.CASAS, P.ABRY, V.NICOMETTE, Directeurs de thèse: P.OWEZARSKI , N° 18256

Lien : https://hal.laas.fr/tel-01886092

Diffusable

Plus d'informations

Résumé

Les anomalies réseaux, et en particulier les attaques par déni de service distribuées, restent une menace considérable pour les acteurs de l’Internet. La détection de ces anomalies requiert des outils adaptés, capables non seulement d’opérer une détection correcte, mais aussi de répondre aux nombreuses contraintes liées à un fonctionnement dans un contexte industriel. Entre autres, la capacité d’un détecteur à opérer de manière autonome, ainsi qu’à fonctionner sur du trafic échantillonné sont des critères importants. Au contraire des approches supervisées ou par signatures, la détection non-supervisée des attaques ne requiert aucune forme de connaissance préalable sur les propriétés du trafic ou des anomalies. Cette approche repose sur une caractérisation autonome du trafic en production, et ne nécessite l’intervention de l’administrateur qu’à postériori, lorsque une déviation du trafic habituel est détectée. Le problème avec de telle approches reste que construire une telle caractérisation est algorithmiquement complexe, et peut donc nécessiter des ressources de calculs conséquentes. Cette exigence, notamment lorsque la détection doit fonctionner sur des équipements réseaux aux charges fonctionnelles déjà lourdes, est dissuasive quant à l’adoption de telles approches. Ce constat nous amène à proposer un nouvel algorithme de détection non-supervisé plus économe en ressources de calcul, visant en priorité les attaques par déni de service distribuées. Sa détection repose sur la création à intervalles réguliers d’instantanés du trafic, et produit des résultats simples à interpréter, aidant le diagnostic de l’administrateur. Nous évaluons les performances de notre algorithme sur deux jeux de données pour vérifier à la fois sa capacité à détecter correctement les anomalies sans lever de faux-positifs et sa capacité à fonctionner en temps réel avec des ressources de calcul limitées, ainsi que sur du trafic échantillonné. Les résultats obtenus sont comparés à ceux de deux autres détecteurs, FastNetMon et UNADA.

Mots-Clés / Keywords
Réseaux; Sécurité; Data mining; Machine learning; Network; Security;

144495
18136
11/06/2018

Adaptation dans les systèmes dynamiques : une vision informatique de la résilience

M.ROY

TSF

Habilitation à diriger des recherches : Juin 2018, 83p., Présidente: L.DUCHIEN, Rapporteurs: P.FELBER, R.NAMYST, P.SENS, Examinateurs: A.FERNANDEZ ANTA, M.HERLIHY, P.QEUINNEC, Correspondant: J.C.FABRE , N° 18136

Lien : https://tel.archives-ouvertes.fr/tel-01801677

Diffusable

Plus d'informations

Abstract

Mes travaux comme chargé de recherche CNRS au LAAS-CNRS dans l’équipe Tolérance aux fautes et Sûreté de Fonctionnement informatique se sont articulés autour de l’adaptation dans les systèmes informatiques dynamiques, proposant une vision informatique du concept de résilience. Les contributions majeures développées lors de mes recherches s’organisent selon quatre axes : 1) l’architecture des systèmes leur permettant d’évoluer de manière sûre, à la fois pour la conception ex nihilo d’un système, que pour l’addition a posteriori de capacités adaptatives. 2) le déploiement de capacités d’observation et de vérification à l’exécution de propriétés pour permettre au système d’évaluer son état. 3) le développement d’algorithmes pour les systèmes répartis dynamiques prenant en compte la variation de la charge (concurrence) et la distribution dans l’espace physique. 4) la mesure et l’étude des systèmes informatiques (trans)portés par les humains. Les perspectives de ces travaux sont multiples et peuvent par exemple être organisées selon deux thèmes : 1) Comprendre les évolutions des systèmes dynamiques, dont le taux de pénétration dans la société, la taille et le niveau de criticité ne cesse d’augmenter. Il est nécessaire de capturer ces dynamiques nouvelles, en particulier issues de la dynamique humaine, pour fournir des jeux de données utilisables librement par les chercheurs, et proposer des modèles descriptifs et prédictifs de ces dynamiques. 2) Développer des mécanismes permettant de fournir des systèmes adaptables sûrs. L’avènement des multi-cœurs dans des domaines critiques (avionique, automobile) pose des défis immenses car ces puces augmentent la variabilité à l’exécution et donc la dynamique du système.

Mots-Clés / Keywords
Distributed computing; Dependability; Resilience; Adaptation; Mobile computing; Human Interactions;

143717
18198
04/05/2018

Test aléatoire de la navigation de robots dans des mondes virtuels

T.SOTIROPOULOS

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 4 Mai 2018, 137p., Président: P.DANES, Rapporteurs: D.ANDREU, L.DU BOUSQUET, Examinateurs: J.GUIOCHET, J.MALENFANT, A.ROLLET, Directeurs de thèse: H.WAESELYNCK, F.INGRAND , N° 18198

Diffusable

Plus d'informations

Abstract

One of the major challenges for the deployment of autonomous systems in diverse, unstructured and human shared environments, is the trust that can be placed in those systems. Indeed, internal faults in those systems, uncertainties on the perception, or even unforeseen situations, threat this confidence. Our work focus in autonomous robots, which are part of autonomous systems. The validation of the navigation software embedded in robots typically involves test campaigns in the field, which are expensive and potentially risky for the robot itself or its environment. These tests are able to test the system only in a small subset of situations. An alternative is to perform simulation-based testing, by immersing the software in virtual worlds. The aim of this thesis is to study the possibilities and limits offered by simulation-based testing of embedded software in autonomous systems. Our work deals particularly with simulation-based testing of the navigation layer of autonomous mobile robots. The first chapter introduce the contexts of dependability, autonomous systems and their testing, simulation and procedural generation of worlds. We identify and discuss the issues related to autonomous systems simulation-based testing, such as the definition and generation of inputs as well as the oracle. The procedural generation of worlds used in video games is retained as a way to answer the problem of the generation of test inputs (worlds and missions). A first contribution is presented in the second chapter, which is based on the definition and implementation of a first experimental simulation-based testing framework with a mobile robot. The navigation software used is integrated into the Genom framework and tested with the MORSE simulator. Through this experiment, first conclusions are drawn on the relevance of the procedural generation of worlds, and on the oracle to be considered. Measures such as tortuousness or indeterminism of navigation are defined. This first work also leads to propose an approach to define levels of difficulty of worlds. The purpose of the third chapter is to identify whether faults known and corrected in a academic navigation software could have been detected through simulation-based testing. Nearly 10 years of commits of the navigation software (including the P3D module which is an academic version of a trajectory planner used by NASA) were thus analyzed. Each fault detected is studied to determine the oracle necessary to detect it whether it could be activated in simulation. Many recommendations are extracted from this study, especially on the properties of the oracle to set up for this type of system. In the fourth chapter, lessons learned from the previous two chapters are implemented for the case of an industrial robot. The considered system, provided by our industrial partner Naïo is the agricultural robot Oz. The conclusions of the preceding chapters regarding the world generation and the oracles are validated by an intensive test campaign in simulation.

Résumé

Un des défis majeurs pour le déploiement de systèmes autonomes dans des environnements variés, non structurés et à proximité de l’homme, est d’établir la confiance entre ces systèmes et leurs utilisateurs. En effet, les fautes internes du système, les incertitudes sur la perception, ou encore les situations non prévues, sont des menaces importantes qui pèsent sur cette confiance. Nos travaux se concentrent sur les robots autonomes qui font partis des systèmes autonomes. La validation du logiciel de navigation embarqué dans les robots est généralement centrée sur des tests sur le terrain, qui sont coûteux et potentiellement risqués pour le robot lui-même ou son environnement. De plus, il n’est possible de tester le système que dans un sous-ensemble restreint de situations. Une approche alternative consiste à effectuer des tests basés sur la simulation en immergeant le logiciel dans des mondes virtuels. L’objectif de cette thèse est d’étudier les possibilités et les limites qu’offre le test en simulation du logiciel embarqué dans les systèmes autonomes. Nos travaux traitent particulièrement du test en simulation de la couche de navigation de systèmes autonomes mobiles. Le premier chapitre présente les contextes de la sûreté de fonctionnement, des systèmes autonomes et de leur test, de la simulation et de la génération procédurale de mondes. Les problématiques liées au test des systèmes autonomes en simulation, telles que la définition et la génération des entrées ainsi que l’expression de l’oracle, sont identifiées et discutées. La génération procédurale de mondes utilisée dans les jeux vidéos est retenue comme piste pour répondre au problème de la générations des entrées de test (mondes et missions). Une première contribution est proposée dans le 2e chapitre qui s’appuie sur la définition et l’implémentation d’une première plateforme expérimentale de test en simulation avec un robot mobile. Le logiciel de navigation utilisé est intégré dans le framework Genom et testé avec le simulateur MORSE. À travers cette expérimentation, des premières conclusions sont établies sur la pertinence de la génération procédurale de mondes, et sur l’oracle à considérer. Des mesures comme la tortuosité ou l’indéterminisme de la navigation sont définies. Ce premier travail mène également à proposer une approche permettant de définir des niveaux de difficulté de mondes. L’objectif du 3e chapitre est d’identifier si les fautes connues et corrigées dans un logiciel de navigation auraient pu être détectées via la simulation. Près de 10 ans de commits du logiciel de navigation (dont le module P3D qui est une version académique d’un planificateur de trajectoire utilisé par la NASA) ont été ainsi analysés. Chaque faute relevée est étudiée pour déterminer si elle serait activable en simulation, et l’oracle nécessaire pour la détecter. De nombreuses recommandations sont extraites de cette étude, notamment sur les propriétés de l’oracle à mettre en place pour ce genre de système. Dans le quatrième chapitre, les enseignements tirés des deux chapitres précédents sont mis en oeuvre dans une étude de cas d’un robot industriel. Le système considéré, fourni par notre partenaire industriel Naïo est celui du robot agricole bineur Oz. Les conclusions des chapitres précédents concernant la génération de monde et les oracles nécessaires sont validées par une campagne de test intensifs en simulation.

Mots-Clés / Keywords
Systèmes autonomes; Simulation; Test; Sûreté de fonctionnement; Autonomous systems; Safety;

144113
18180
02/05/2018

Confidence in safety argument - An assessment framework based on belief function theory

R.WANG

TSF

Doctorat : INSA de Toulouse, 2 Mai 2018, 147p., Président: D.DUBOIS, Rapporteurs: M.TRAPP, T.DENOEUX, Examinateurs: B.GALLINA, Directeurs de thèse: G.MOTTET, J.GUIOCHET , N° 18180

Lien : https://hal.laas.fr/tel-01880790

Diffusable

Plus d'informations

Résumé

Les arguments de sécurité sont couramment utilisés pour montrer que des efforts suffisants ont été faits pour atteindre les objectifs de sécurité. Ainsi, la sécurité du système est souvent justifiée par l'évaluation des arguments de sécurité. L'évaluation de tels arguments repose généralement sur l’avis d’experts sans s’appuyer sur des outils ou des méthodes dédiés. Ceci pose des questions sur la validité des résultats. Dans cette thèse, une approche quantitative est proposée, basé sur la théorie de Dempster-Shafer (théorie D-S) pour évaluer notre confiance dans les arguments de sécurité. Cette approche gère le problème à travers les aspects suivants: 1) Définition formelle de la confiance dans les arguments basée sur la théorie D-S; 2) Développement de règles d'agrégation des paramètres de confiance; 3) Proposition d'un cadre d'évaluation quantitatif des arguments de sécurité. Une application dans le domaine ferroviaire conduit à l'estimation des paramètres du cadre par une enquête auprès d'experts en sécurité.

Abstract

Safety arguments, also called Safety Cases, are commonly used to present that adequate efforts have been made to achieve the safety goals. Thus, the system safety is often justified through assessing the safety arguments. The assessment of such arguments is usually implemented by experts without any dedicated tool or method. This leads to a questionable validity of the results. In this thesis, a quantitative framework is proposed based on Dempster-Shafer theory (D-S theory) to assess our confidence in Safety Cases. This framework manages the issue in following aspects: 1) Formal definition of confidence in arguments based on D-S theory; 2) Development of confidence aggregation rules; 3) Proposition of a quantitative assessment framework of safety arguments. An application in railway domain realises the parameter estimation of the framework by a survey with safety experts.

Mots-Clés / Keywords
Argumentaire de sécurité; Théorie des fonctions de croyance; Evaluation de la confidence; Système critique; Sûreté de fonctionnement;

143953
18050
24/01/2018

Technologies respectueuses de la vie privée pour le covoiturage. Privacy-Enhancing Technologies for Ridesharing

U.M.AIVODJI

TSF, ROC

Doctorat : Université de Toulouse III - Paul Sabatier, 24 Janvier 2018, 142p., Président: B.NGUYEN, Rapporteurs: J.DOMINGO-FERRER, D.FEILLET, Examinateurs: C.BRIAND, F.FESSANT, B.LE CUN, Directeurs de thèse: M.O.KILLIJIAN, M.J.HUGUET , N° 18050

Lien : https://hal.laas.fr/tel-01735575

Diffusable

Plus d'informations

Résumé

L’émergence des téléphones mobiles et objets connectés a profondément changé notre vie quotidienne. Ces dispositifs, grâce à la multitude de capteurs qu’ils em- barquent, permettent l’accès à un large spectre de services. En particulier, les capteurs de position ont contribué au développent des services de localisation tels que la navigation, le covoiturage, le suivi de la congestion en temps réel. . . En dépit du confort offert par ces services, la collecte et le traitement des données de localisation portent de sérieuses atteintes à la vie privée des utilisateurs. En effet, ces données peuvent renseigner les fournisseurs de services sur les points d’intérêt (domicile, lieu de travail, orientation sexuelle), les habitudes ainsi que le réseau social des utilisateurs. D’une façon générale, la protection de la vie privée des utilisateurs peut être assurée par des dispositions légales ou techniques. Même si les mesures d’ordre légal peuvent dissuader les fournisseurs de services et les individus malveillants à enfreindre le droit à la vie privée des utilisateurs, les effets de telles mesures ne sont observables que lorsque l’infraction est déjà commise et détectée. En revanche, l’utilisation des technologies renforçant la protection de la vie privée (PET pour Privacy Enhancing Technologies) dès la phase de conception des systèmes permet de réduire le taux de réussite des attaques contre la vie privée des utilisateurs. L’objectif principal de cette thèse est de montrer la viabilité de l’utilisation des PET comme moyens de protection des données de localisation dans les services de covoiturage. Ce type de service de localisation, en aidant les conducteurs à partager les sièges vides dans les véhicules, contribue à réduire les problèmes de congestion, d’émissions et de dépendance aux combustibles fossiles. Dans cette thèse, nous étudions les problèmes de synchronisation d’itinéraires et d’appariement relatifs au covoiturage avec une prise en compte explicite des contraintes de protection des données de localisation (origine, destination). Les solutions proposées dans cette thèse combinent des algorithmes de calcul d’itinéraires multimodaux avec plusieurs techniques de protection de la vie privée telles que le chiffrement homomorphe, l’intersection sécurisée d’ensembles, le secret partagé, la comparaison sécurisée dentier. Elles garantissent des propriétés de protection de vie privée comprenant l’anonymat, la non-chainabilité et la minimisation des données. De plus, elles sont comparées à des so- lutions classiques, ne protégeant pas la vie privée. Nos expérimentations indiquent que les contraintes de protection des données privées peuvent être prise en compte dans les services de covoiturage sans dégrader leurs performances.

Abstract

The emergence of mobile phones and connected objects has profoundly changed our daily lives. These devices, thanks to the multitude of sensors they embark, allow access to a broad spectrum of services. In particular, position sensors have contributed to the development of location-based services such as navigation, ridesharing, real-time congestion tracking. . . Despite the comfort offered by these services, the collection and processing of location data seriously infringe the privacy of users. In fact, these data can inform service providers about points of interests (home, workplace, sexual orientation), habits and social network of the users. In general, the protection of users’ privacy can be ensured by legal or technical provisions. While legal measures may discourage service providers and malicious individuals from infringing users’ privacy rights, the effects of such measures are only observable when the offense is already committed and detected. On the other hand, the use of privacy-enhancing technologies (PET) from the design phase of systems can reduce the success rate of attacks on the privacy of users. The main objective of this thesis is to demonstrate the viability of the usage of PET as a means of location data protection in ridesharing services. This type of location-based ser- vice, by allowing drivers to share empty seats in vehicles, helps in reducing congestion, CO2 emissions and dependence on fossil fuels. In this thesis, we study the problems of synchro- nization of itineraries and matching in the ridesharing context, with an explicit consideration of location data (origin, destination) protection constraints. The solutions proposed in this thesis combine multimodal routing algorithms with sev- eral privacy-enhancing technologies such as homomorphic encryption, private set intersection, secret sharing, secure comparison of integers. They guarantee privacy properties including anonymity, unlinkability, and data minimization. In addition, they are compared to conven- tional solutions, which do not protect privacy. Our experiments indicate that location data protection constraints can be taken into account in ridesharing services without degrading their performance.

Mots-Clés / Keywords
Privacy; Ridesharing; Privacy enhancing technologies; Vie privée; Covoiturage; Technologies renforçant la vie privée;

142777
16462
13/12/2016

Monitoring et détection d'anomalie par apprentissage dans des infrastructures virtualisées

C.SAUVANAUD

TSF

Doctorat : INSA de Toulouse, 13 Décembre 2016, 174p., Président: E.EXPOSITO, Rapporteurs: S.BOUCHENAK, P.SENS, Examinateurs: K.LAZRI, Directeurs de thèse: M.KAANICHE, K.KANOUN , N° 16462

Lien : https://hal.laas.fr/tel-01445648

Diffusable

Plus d'informations

Abstract

Nowadays, the development of virtualization technologies as well as the development of the Internet contributed to the rise of the cloud computing model. A cloud computing enables the delivery of configurable computing resources while enabling convenient, on-demand network access to these resources. Resources hosted by a provider can be applications, development platforms or infrastructures. Over the past few years, computing systems are characterized by high development speed, parallelism, and the diversity of task to be handled by applications and services. In order to satisfy their Service Level Agreements (SLA) drawn up with users, cloud providers have to handle stringent dependability demands. Ensuring these demands while delivering various services makes clouds dependability a challenging task, especially because providers need to make their services available on demand. This task is all the more challenging that users expect cloud services to be at least as dependable as traditional computing systems. In this manuscript, we address the problem of anomaly detection in cloud services. A detection strategy for clouds should rely on several principal criteria. In particular it should adapt to workload changes and reconfigurations, and at the same time require short configurations durations and adapt to several types of services. Also, it should be performed online and automatic. Finally, such a strategy needs to tackle the detection of different types of anomalies namely errors, preliminary symptoms of SLA violation and SLA violations. We propose a new detection strategy based on system monitoring data. The data is collected online either from the service, or the underlying hypervisor(s) hosting the service. The strategy makes use of machine learning algorithms to classify anomalous behaviors of the service. Three techniques are used, using respectively algorithms with supervised learning, unsupervised learning or using a technique exploiting both types of learning. A new anomaly detection technique is developed based on online clustering, and allowing to handle possible changes in a service behavior. A cloud platform was deployed so as to evaluate the detection performances of our strategy. Moreover a fault injection tool was developed for the sake of two goals : the collection of service observations with anomalies so as to train detection models, and the evaluation of the strategy in presence of anomalies. The evaluation was applied to two case studies : a database management system and a virtual network function. Sensitivity analyzes show that detection performances of our strategy are high for the three anomaly types. The context for the generalization of the results is also discussed.

Résumé

Le cloud computing est un modèle de délivrance à la demande d’un ensemble de ressources informatiques distantes, partagées et configurables. Ces ressources, détenues par un fournisseur de service cloud, sont mutualisées grâce à la virtualisation de serveurs qu’elles composent et sont mises à disposition d’utilisateurs sous forme de services disponibles à la demande. Ces services peuvent être aussi variés que des applications, des plateformes de développement ou bien des infrastructures. Afin de répondre à leurs engagements de niveau de service auprès des utilisateurs, les fournisseurs de cloud se doivent de prendre en compte des exigences différentes de sûreté de fonctionnement. Assurer ces exigences pour des services différents et pour des utilisateurs aux demandes hétérogènes représente un défi pour les fournisseurs, notamment de part leur engagement de service à la demande. Ce défi est d’autant plus important que les utilisateurs demandent à ce que les services rendus soient au moins aussi sûrs de fonctionnement que ceux d’applications traditionnelles. Nos travaux traitent particulièrement de la détection d’anomalies dans les services cloud de type SaaS et PaaS. Les différents types d’anomalie qu’il est possible de détecter sont les erreurs, les symptômes préliminaires de violations de service et les violations de service. Nous nous sommes fixé quatre critères principaux pour la détection d’anomalies dans ces services : i) elle doit s’adapter aux changements de charge de travail et reconfiguration de services ; ii) elle doit se faire en ligne, iii) de manière automatique, iv) et avec un effort de configuration minimum en utilisant possiblement la même technique quel que soit le type de service. Dans nos travaux, nous avons proposé une stratégie de détection qui repose sur le traitement de compteurs de performance et sur des techniques d’apprentissage automatique. La détection utilise les données de performance système collectées en ligne à partir du système d’exploitation hôte ou bien via les hyperviseurs déployés dans le cloud. Concernant le traitement des ces données, nous avons étudié trois types de technique d’apprentissage : supervisé, non supervisé et hybride. Une nouvelle technique de détection reposant sur un algorithme de clustering est de plus proposée. Elle permet de prendre en compte l’évolution de comportement d’un système aussi dynamique qu’un service cloud. Une plateforme de type cloud a été déployée afin d’évaluer les performances de détection de notre stratégie. Un outil d’injection de faute a également été développé dans le but de cette évaluation ainsi que dans le but de collecter des jeux de données pour l’entrainement des modèles d’apprentissage. L’évaluation a été appliquée à deux cas d’étude : un système de gestion de base de données (MongoDB) et une fonction réseau virtualisée. Les résultats obtenus à partir d’analyses de sensibilité, montrent qu’il est possible d’obtenir de très bonnes performances de détection pour les trois types d’anomalies, tout en donnant les contextes adéquats pour la généralisation de ces résultats.

Mots-Clés / Keywords
Apprentissage automatique; Cloud computing; Détection d'anomalie; Injection de fautes; Monitoring; Virtualisation;

138473
16615
13/12/2016

Chiffrement homomorphe appliqué au retrait d'information privé

J.BARRIER

TSF

Doctorat : INSA de Toulouse, 13 Décembre 2016, 96p., Président: P.GABORIT, Rapporteurs: C.FONTAINE, Examinateurs: G.JAKLLARI, M.LAURENT, Directeurs de thèse: M.O.KILLIJIAN, C.AGUILAR MELCHOR , N° 16615

Lien : https://hal.laas.fr/tel-01682332

Diffusable

Plus d'informations

Abstract

Private information retrieval, named PIR, is a set of protocols that is a part of privacy enhancement technologies.Its major feature is to hide the index of a record that a user retrieved from the host.Without neglecting the scientific contributions of its authors, the usability of this protocol seems hard since that, for a user, it seems more and more efficient to receive all the records.Thus far, PIR can be achieved using mutually distrustful databases replicated databases, trusted hardware, or cryptographic systems.We focus on computational private information retrieval, and specifically on thus based on cryptographic systems.This decision is contingent to the spread of cryptographic systems based on lattices who provide specific properties.To demonstrate it usability, we offer an efficient and easy-to-use private Information retrieval based on homomorphic encryption.

Résumé

Le retrait d’information privé que nous nommons PIR, désigne un groupe de protocoles qui s’inscrit dans un ensemble plus vaste des technologies d’amélioration de la vie privée. Sa fonctionnalité principale est de dissimuler l’index d’un élément d’une liste accédée par un client au regard de son hôte. Sans négliger l’appart de leurs auteurs à la communauté scientifique, l’utilisabilité de ce groupe de protocoles semble limitée, car pour un client, télécharger l’intégralité de la liste est plus efficient. À ce jour, les PIR, se fondent sur des serveurs répliqués mutuellement méfiants, des périphériques de confiance ou bien des systèmes cryptographiques. Nous considérerons ici les retraits d’informations privés computationnels et plus particulièrement ceux reposant sur les réseaux euclidiens qui n’offrent des propriétés particulières, comme l’homomorphisme. Afin d’en démontrer l’utilisabilité, nous proposons un retrait d’information privé reposant sur un système cryptographique homomorphe performant et aisé d’utilisation.

Mots-Clés / Keywords
Chiffrement homomorphe; Réseaux euclidiens; Retrait d'information privée; Technologies de renforcement de la vie privée; Vie privée;

141935
16552
06/12/2016

Protection des systèmes informatiques vis à vis des malveillances : un hyperviseur de sécurité assisté par le matériel

B.MORGAN

TSF

Doctorat : INSA de Toulouse, 6 Décembre 2016, 146p., Président: M.KAANICHE, Rapporteurs: M.LAURENT, M.L.POTET, Examinateurs: S.DUVERGER, A.FRANCILLON, J.L.LANET, Directeurs de thèse: V.NICOMETTE, E.ALATA , N° 16552

Lien : https://hal.laas.fr/tel-01499283

Diffusable

Plus d'informations

Abstract

Computer systems are nowadays evolving quickly. The classical model which consists in associating a physical machine to every users is becoming obsolete. Today, computer resources we are using can be distributed any place on the Internet and usual workstations are not systematically physical machines anymore. This fact is enlightening two important phenomenons which are leading the evolution of the usage we make of computers : Cloud computing and hardware virtualization. Cloud computing enables users to exploit computers resources, with a fine grained granularity and a non predefined amount of time, which are available into a cloud of resources. Cloud systems must be able to adapt quickly to a fluctuating demand and being able to reconfigure themselves quickly. One way to reach these goals is dependant of the usage of virtual machines and the associated virtualization techniques. Even if computer resource virtualization has not been introduced by the cloud, the arrival of the cloud substantially increased its usage. Nowadays, all cloud providers are using virtual machines, which are much more deployable and movable than physical machines. Thus, even if we can see that virtualization is a real interest for modern computer science, it is either clear that its implementation is adding complexity to computer systems, both at software and hardware levels. From this observation, it is legitimate to ask the question about computer security in this context, with an increased architecture complexity and more and more privileged execution modes. Given the presence of multiple virtual machines, which do not trust each other, and which are executing in the same physical machine, will a compromised virtual machine be able to exploit one vulnerability ? Isn’t it necessary to consider new security architectures taking these risks into account ? This thesis is trying to answer to these questions. In particular, we are introducing state of the art security issues in virtualized environment of modern architectures. Starting from this work, we are proposing an original architecture ensuring the integrity of a software being executed on a computer system, regardless its privilege level. This architecture is both using software, a security hypervisor, and hardware, a trusted peripheral, we have both designed and implemented.

Résumé

L’utilisation des systèmes informatiques est aujourd’hui en pleine évolution. Le modèle classique qui consiste à associer à chaque utilisateur une machine physique qu’il possède et dont il va exploiter les ressources devient de plus en plus obsolète. Aujourd’hui, les ressources informatiques que l’on utilise peuvent être distribuées n’importe où dans l’Internet et les postes de travail du quotidien ne sont plus systématiquement des machines réelles. Cette constatation met en avant deux phénomènes importants qui sont à l’origine de l’évolution de notre utilisation de l’informatique : le Cloud computing et la virtualisation. Le Cloud computing (ou informatique en nuage en français) permet à un utilisateur d’exploiter des ressources informatiques, de granularités potentiellement très différentes, pendant une durée variable, qui sont à disposition dans un nuage de ressources. L’informatique en nuage doit donc pouvoir s’adapter à la demande et facilement se reconfigurer. Une manière d’atteindre ces objectifs nécessite notamment l’utilisation de machines virtuelles et des techniques de virtualisation associées. Même si la virtualisation de ressources informatiques n’est pas née avec le Cloud, l’avènement du Cloud a considérablement augmenté son utilisation. L’ensemble des fournisseurs d’informatique en nuage s’appuient aujourd’hui sur des machines virtuelles, qui sont beaucoup plus facilement déployables et déplaçables que des machines réelles. Ainsi, s’il est indéniable que l’utilisation de la virtualisation apporte un véritable intérêt pour l’informatique d’aujourd’hui, il est par ailleurs évident que sa mise en oeuvre ajoute une complexité aux systèmes informatiques, complexité à la fois logicielle (gestionnaire de machines virtuelles) et matérielle (nouveaux mécanismes d’assistance à la virtualisation intégrés dans les processeurs). À partir de ce constat, il est légitime de se poser la question de la sécurité informatique dans ce contexte où l’architecture des processeurs devient de plus en plus complexe, avec des modes de plus en plus privilégiés. Étant donné la complexité des systèmes informatiques, l’exploitation de vulnérabilités présentes dans les couches privilégiées ne risque-t-elle pas d’être très sérieuse pour le système global ? Étant donné la présence de plusieurs machines virtuelles, qui ne se font pas mutuellement confiance, au sein d’une même machine physique, est-il possible que l’exploitation d’une vulnérabilité soit réalisée par une machine virtuelle compromise ? N’est-il pas nécessaire d’envisager de nouvelles architectures de sécurité prenant en compte ces risques ? C’est à ces questions que cette thèse propose de répondre. En particulier, nous présentons un panorama des différents problèmes de sécurité dans des environnements virtualisés et des architectures matérielles actuelles. À partir de ce panorama, nous proposons dans nos travaux une architecture originale permettant de s’assurer de l’intégrité d’un logiciel s’exécutant sur un système informatique, quel que soit son niveau de privilège. Cette architecture est basée sur une utilisation mixte de logiciel (un hyperviseur de sécurité développé par nos soins, s’exécutant sur le processeur) et de matériel (un périphérique de confiance, autonome, que nous avons également développé).

Mots-Clés / Keywords
Sécurité; Virtualisation; Hyperviseur; Test d’intégrité; Périphérique; Security; Virtualization; Hypervisors; Integrity checking; Peripherals;

139174
16391
17/11/2016

Inférence et modèles de données personnelles : mobilité sociale, proximité spatiale

R.PASQUA

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 17 Novembre 2016, 96p., Président: J.MOTHE, Rapporteurs: C.MAGNIEN, R.BALDONI, Examinateurs: S.BEN MOKHTAR, Directeurs de thèse: M.KAANICHE, G.TREDAN , N° 16391

Lien : https://hal.laas.fr/tel-01416982

Diffusable

Plus d'informations

Abstract

The wide diffusion of smart portable devices allows the collection of a big amount of data concerning the activities of users from mobile apps. We focus our attention on location data, i.e. mobility traces, of a set of users in a crowd. Data collected from these mobile systems are studied following two axies : – Mobility models are used to simulate the behavior of users to develop opportunistic forwarding algorithms. We compare real and synthetic mobility traces to show the distance between the reality and the models. – Information on mobility may endanger the privacy of users. We analyze the impact of such information on privacy of users. The main contributions are : – We analyze the spatial and social properties of human motion from real traces collected by a highly accurate experimental localization system. – We compare the real traces with synthetic mobility traces generated from seven popular mobility models – We provide an inference algorithm based on co-location of users and we show its efficiency on different datasets. – We quantify the effect of probabilistic co-location information by means of a novel colocation attack.

Résumé

La diffusion massive de dispositifs portables, de plus en plus utilisés pour le traitement et la communication de l’information, permet la collecte d’importantes masses de données liées à l’activité des utilisateurs sur des applications mobiles. Nous nous intéressons aux données de localisation (les traces de mobilité) qui sont issues de systèmes mobiles formés par un groupe d’utilisateurs. Les données de mobilité produites dans un système mobile sont étudiées suivant deux axes : – L’utilisation des modèles de mobilité est à la base du développement d’algorithmes de communication dédiés au systèmes mobiles. Les données de mobilité réelles concernant les utilisateurs vont nous permettre de comparer les données de mobilité synthétiques utilisées dans la simulation avec la réalité qu’ils sont censés décrire. – La manipulation des données de mobilité réelles implique une réflexion sur les conséquences que les informations extraites de ces données ont relativement à la protection de la vie privée des utilisateurs. Les contributions sur ces deux fronts sont les suivantes : – Une analyse fine des propriétés spatiales et sociales d’un ensemble de traces de mobilité réelles collecté expérimentalement à l’aide d’une plateforme à haute precision. – Une comparaison exploratoire entre des traces de mobilité réelles et des traces de mobilité synthétiques générées à partir de sept différents modèle de mobilité. – La conception et l’analyse d’un algorithme d’inférence par co-localisation décorrélée des informations sur la localisation des utilisateurs ciblés. – La quantification du potentiel des données de co-localisation non-déterministes sur la perte de protection de la vie privée d’un ensemble d’utilisateurs.

Mots-Clés / Keywords
Systèmes mobiles; Systèmes distribués; Modèles de mobilité; Exploration des données; Réseaux sociaux; Protection de la vie privée; Mobile systems; Distributed systems; Mobility models; Data mining; Social network; Privacy;

138215
16031
13/01/2016

Approche d'intégrité bout en bout pour les communications dans les systèmes embarqués critiques : application aux systèmes de commande de vol d'hélicoptères

A.ZAMMALI

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 13 Janvier 2016, 148p., Président: L.ENGHEL, Rapporteurs: S.COLLART-DUTILLEUL, P.J.GIL VICENTE, Examinateurs: J.P.BLANQUART, P.IZZO, Y.LABIT, Directeurs de thèse: A.DE BONNEVAL, Y.CROUZET , N° 16031

Lien : https://tel.archives-ouvertes.fr/tel-01285629

Diffusable

Plus d'informations

Résumé

Dans les systèmes embarqués critiques, assurer la sûreté de fonctionnement est primordial du fait, à la fois, des exigences en sûreté dictées par les autorités de certification et des contraintes en sûreté de ces systèmes où des défaillances pourraient conduire à des évènements catastrophiques, voire la perte de vies humaines. Les architectures de ces systèmes sont aujourd’hui de plus en plus distribuées, s’appuyant sur des réseaux numériques complexes, ce qui pose la problématique de l’intégrité des communications. Dans ce contexte, nous proposons une approche bout en bout pour l’intégrité des communications, basée sur le concept du « canal noir » introduit par l’IEC 61508. Elle utilise les codes détecteurs d'erreurs CRC, Adler et Fletcher. Selon le niveau de redondance des systèmes, nous proposons une approche multi-codes (intégrité jugée sur un lot de messages) pour les systèmes dotés d’un niveau de redondance important et une approche mono-code (intégrité jugée sur chaque message) pour les autres cas. Nous avons validé ces propositions par des expérimentations évaluant le pouvoir de détection intrinsèque de chaque code détecteur et la complémentarité entre ces code en termes de pouvoir de détection, ainsi que leurs coûts de calcul avec une analyse de l’impact du type de leur implémentation et de l’environnement matériel (standard et embarqué : processeurs i7, STM32, TMS320C6657 et P2020). L’approche mono-code a été appliquée à un cas d’étude industriel : les futurs systèmes de commande de vol d’Airbus Helicopters.

Abstract

In critical embedded systems, ensuring dependability is crucial given both dependability requirements imposed by certification authorities and dependability constraints of these systems where failures could lead to catastrophic events even loss of human lives. The architectures of these systems are increasingly distributed deploying complex digital networks which raise the issue of communication integrity. In this context, we propose an end to end approach for communication integrity. This approach is based on the “black channel” concept introduced by IEC 61508. It uses error detection codes particularly CRC, Adler and Fletcher. Depending on the redundancy level of targeted systems, we propose a multi-codes approach (integrity of a set of messages) for systems with an important redundancy level and a singlecode approach (integrity per message) for the other cases. We validated our proposals through experiments in order to evaluate intrinsic error detection capability of each error detection code, their complementarity in terms of error detection and their computational costs by analyzing the impact of the type of implementation and the hardware environment (standard or embedded: i7, STM32, TMS320C6657 and P2020 processors). The single-code approach was applied to an industrial case study: future flight control systems of Airbus Helicopters.

Mots-Clés / Keywords
Systèmes embarqués critiques; Réseaux de communication numériques; Sûreté de fonctionnement; Intégrité des communications; Intégrité bout en bout; Codes détecteurs d’erreurs; Systèmes de commande de vol; Critical embedded systems; Dependability; Communication integrity; Digital networks; End to end integrity; Error detection codes; Flight control systems;

136273
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/