Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

38documents trouvés

18136
11/06/2018

Adaptation dans les systèmes dynamiques : une vision informatique de la résilience

M.ROY

TSF

Habilitation à diriger des recherches : Juin 2018, 83p., Rapporteurs: P.FELBER, R.NAMYST, P.SENS, Examinateurs: L.DUCHIEN, A.FERNANDEZ ANTA, M.HERLIHY, P.QEUINNEC, Correspondant: J.C.FABRE , N° 18136

Lien : https://tel.archives-ouvertes.fr/tel-01801677

Diffusable

Plus d'informations

Abstract

Mes travaux comme chargé de recherche CNRS au LAAS-CNRS dans l’équipe Tolérance aux fautes et Sûreté de Fonctionnement informatique se sont articulés autour de l’adaptation dans les systèmes informatiques dynamiques, proposant une vision informatique du concept de résilience. Les contributions majeures développées lors de mes recherches s’organisent selon quatre axes : 1) l’architecture des systèmes leur permettant d’évoluer de manière sûre, à la fois pour la conception ex nihilo d’un système, que pour l’addition a posteriori de capacités adaptatives. 2) le déploiement de capacités d’observation et de vérification à l’exécution de propriétés pour permettre au système d’évaluer son état. 3) le développement d’algorithmes pour les systèmes répartis dynamiques prenant en compte la variation de la charge (concurrence) et la distribution dans l’espace physique. 4) la mesure et l’étude des systèmes informatiques (trans)portés par les humains. Les perspectives de ces travaux sont multiples et peuvent par exemple être organisées selon deux thèmes : 1) Comprendre les évolutions des systèmes dynamiques, dont le taux de pénétration dans la société, la taille et le niveau de criticité ne cesse d’augmenter. Il est nécessaire de capturer ces dynamiques nouvelles, en particulier issues de la dynamique humaine, pour fournir des jeux de données utilisables librement par les chercheurs, et proposer des modèles descriptifs et prédictifs de ces dynamiques. 2) Développer des mécanismes permettant de fournir des systèmes adaptables sûrs. L’avènement des multi-cœurs dans des domaines critiques (avionique, automobile) pose des défis immenses car ces puces augmentent la variabilité à l’exécution et donc la dynamique du système.

Mots-Clés / Keywords
Distributed computing; Dependability; Resilience; Adaptation; Mobile computing; Human Interactions;

143717
18079
13/02/2018

Improving performance measurement of engineering projects: methods to develop indicators

L.ZHENG

ISI

Doctorat : INSA de Toulouse, 13 Février 2018, 135p., Président: E.BONJOUR, Rapporteurs: C.MERLO, B.ROSE, Examinateurs: M.ZOLGHADRI, Directeurs de thèse: C.BARON, P.ESTEBAN , N° 18079

Diffusable

Plus d'informations

Résumé

La mesure de la performance est l’une des nombreuses activités de la gestion de projet, elle contribue à assurer le succès du projet. Pour atteindre ce but, les entreprises ont besoin de déterminer un système de mesures de la performance. Ces mesures fournissent au chef de projet l’état de santé du projet et l’aide à évaluer s’il a atteint ou va atteindre ses objectifs. Néanmoins, avec la complexité croissante des projets et la nécessité économique absolue d’atteindre les objectifs, les chefs de projets ne peuvent plus se contenter de superviser les coûts et le planning pour évaluer la performance du projet. Ils ont besoin de considérer par exemple d’autres indicateurs comme la satisfaction des exigences du client, la maturité de la technologie, etc. De plus, ils ont besoin d’avoir une évaluation précise des valeurs de ces indicateurs tout au long du projet et pas uniquement à la fin, pour monitorer au mieux le projet afin qu’il atteigne ses objectifs. Pour satisfaire ces nouveaux besoins, les objectifs de cette thèse sont d’étendre le nombre d’indicateurs génériques et de diversifier le type des indicateurs, ainsi que de proposer une méthode pour concevoir des indicateurs spécifiques à un projet. Pour cela, nous procédons par l’intégration de bonnes pratiques pour la mesure de performance issues de plusieurs domaines de l’ingénierie, et illustrons nos propositions sur des cas pratiques. Ce rapport introduit la notion de performance et caractérise les systèmes de mesure de performance, en mettant notamment en évidence un emploi non cohérent de la terminologie selon les sources. Il identifie plusieurs limitations des systèmes de mesure de performance actuels et souligne notamment le besoin d’étendre le nombre et le type des indicateurs, et de construire des indicateurs de performance spécifiques et pertinents pour chaque projet. Une étude bibliographique sur la mesure de la performance dans les domaines de l’ingénierie, notamment en ingénierie système, montre que la mesure de performance est particulièrement bien développée dans cette dernière discipline, avec une offre de 18 indicateurs génériques avancés permettant une grande proactivité. La thèse propose de ce fait d’adapter ces indicateurs au management de projets, résultant en la définition d’un ensemble d’indicateurs étendu et diversifié pour la mesure de performance. Par ailleurs, l’étude des normes et guides en ingénierie système et logicielle (Practical Software and System Measurement, ISO/IEC 15939) nous amène à identifier d’autres besoins, comme la création dynamique d’indicateurs ad hoc qu’il est nécessaire de définir en cours de projet afin évaluer certains risques spécifiques, et soulève de nouvelles difficultés, comme la collecte et la manipulation des données pour la construction des indicateurs. Pour y répondre, ce rapport propose donc également une méthode guidant la construction dynamique d’indicateurs spécifiques. Celle-ci, illustrée dans le mémoire sur un cas concret de projet, a été validée par un panel d’experts.

Abstract

Performance measurement is essential to ensure the success of a project. To this goal, companies need to determine a system of performance measures, classically including cost and schedule measures, which provide the project manager with the project health status and help her or him to evaluate the project successes and failures. However, with the increasing complexity of projects and the absolute necessity to reach the project objectives, project managers cannot only rely on such information about cost and schedule to evaluate the project performance; they need to consider, for instance, other indicators such as the satisfaction of customer requirements, the technology maturity, etc. Moreover, they need to have a precise evaluation of these indicators values while the project is in progress, in order to monitor it at best so that it reaches its goals, and not only after the project ends, to only conclude on the project success or failure without any mean to react. Considering these two issues, the objectives of the thesis thus are to extend the number, scope and type of current project performance indicators with a proposal of complementary indicators, and to propose a method for designing project-specific indicators, in order to improve project performance measurement. To define supplementary indicators and elaborate such a method, we proceed by integrating good measurement practices from different engineering disciplines and illustrate our proposal on use cases. The thesis first introduces the notion of performance and characterizes performance measurement systems (PMSs); such systems offer a wide panel of models for organizational performance measurement. Focusing on PMSs, we provide some insights for project performance measurement. More precisely, we identify several issues highlighted in literature, relative to the limitations of current project performance measurement such as the need to balance lagging indicators (to control) with leading indicators (to monitor), and the need to construct performance indicators that are relevant to project-specific information needs. We then focus on project performance measurement and reviews literature in this domain. It highlights the issue of the unbalanced use of leading and lagging indicators. To bring a solution to the issue, we review literature of performance measurement in engineering disciplines, with a focus on systems engineering practices, especially a panel of 18 generic leading indicators that are currently engineered in guidance. A method has been proposed to adapt the set of systems engineering leading indicators to project management, thus resulting in developing the set of indicators to measure project performance. Moreover, focusing on standards and guides on measurement in systems and software engineering led us to identify other issues in project performance measurement, such as the difficulties to define indicators dynamically for a project, and how to collect and combine data in order to construct these indicators. We finally consider the methodological difficulties about designing relevant performance indicators. More precisely, we identify 3 issues: different opinions among researchers about the sources from where the indicators will be derived; the problem in relation to the transformation from data to indicators; and the association of data collection, analysis and report with project management processes. To solve these issues, we analyze good practices from the Practical Software and Systems Measurement, the ISO/IEC 15939 norm and the Project Management Body of Knowledge that proved to be able to address the identified issues respectively. This work results in a method integrating these practices to address the 3 identified issues in project performance measurement. The method is illustrated on a real project context. Evaluation of the method has been conducted in workshop of project managers, which confirmed the interest for the proposal.

Mots-Clés / Keywords
Engineering project; Software and system measurement; Project performance measurement; Systems engineering measurement; Leading and lagging indicators; Design of indicators;

143036
18050
24/01/2018

Technologies respectueuses de la vie privée pour le covoiturage. Privacy-Enhancing Technologies for Ridesharing

U.M.AIVODJI

TSF, ROC

Doctorat : Université de Toulouse III - Paul Sabatier, 24 Janvier 2018, 142p., Président: B.NGUYEN, Rapporteurs: J.DOMINGO-FERRER, D.FEILLET, Examinateurs: C.BRIAND, F.FESSANT, B.LE CUN, Directeurs de thèse: M.O.KILLIJIAN, M.J.HUGUET , N° 18050

Lien : https://hal.laas.fr/tel-01735575

Diffusable

Plus d'informations

Résumé

L’émergence des téléphones mobiles et objets connectés a profondément changé notre vie quotidienne. Ces dispositifs, grâce à la multitude de capteurs qu’ils em- barquent, permettent l’accès à un large spectre de services. En particulier, les capteurs de position ont contribué au développent des services de localisation tels que la navigation, le covoiturage, le suivi de la congestion en temps réel. . . En dépit du confort offert par ces services, la collecte et le traitement des données de localisation portent de sérieuses atteintes à la vie privée des utilisateurs. En effet, ces données peuvent renseigner les fournisseurs de services sur les points d’intérêt (domicile, lieu de travail, orientation sexuelle), les habitudes ainsi que le réseau social des utilisateurs. D’une façon générale, la protection de la vie privée des utilisateurs peut être assurée par des dispositions légales ou techniques. Même si les mesures d’ordre légal peuvent dissuader les fournisseurs de services et les individus malveillants à enfreindre le droit à la vie privée des utilisateurs, les effets de telles mesures ne sont observables que lorsque l’infraction est déjà commise et détectée. En revanche, l’utilisation des technologies renforçant la protection de la vie privée (PET pour Privacy Enhancing Technologies) dès la phase de conception des systèmes permet de réduire le taux de réussite des attaques contre la vie privée des utilisateurs. L’objectif principal de cette thèse est de montrer la viabilité de l’utilisation des PET comme moyens de protection des données de localisation dans les services de covoiturage. Ce type de service de localisation, en aidant les conducteurs à partager les sièges vides dans les véhicules, contribue à réduire les problèmes de congestion, d’émissions et de dépendance aux combustibles fossiles. Dans cette thèse, nous étudions les problèmes de synchronisation d’itinéraires et d’appariement relatifs au covoiturage avec une prise en compte explicite des contraintes de protection des données de localisation (origine, destination). Les solutions proposées dans cette thèse combinent des algorithmes de calcul d’itinéraires multimodaux avec plusieurs techniques de protection de la vie privée telles que le chiffrement homomorphe, l’intersection sécurisée d’ensembles, le secret partagé, la comparaison sécurisée dentier. Elles garantissent des propriétés de protection de vie privée comprenant l’anonymat, la non-chainabilité et la minimisation des données. De plus, elles sont comparées à des so- lutions classiques, ne protégeant pas la vie privée. Nos expérimentations indiquent que les contraintes de protection des données privées peuvent être prise en compte dans les services de covoiturage sans dégrader leurs performances.

Abstract

The emergence of mobile phones and connected objects has profoundly changed our daily lives. These devices, thanks to the multitude of sensors they embark, allow access to a broad spectrum of services. In particular, position sensors have contributed to the development of location-based services such as navigation, ridesharing, real-time congestion tracking. . . Despite the comfort offered by these services, the collection and processing of location data seriously infringe the privacy of users. In fact, these data can inform service providers about points of interests (home, workplace, sexual orientation), habits and social network of the users. In general, the protection of users’ privacy can be ensured by legal or technical provisions. While legal measures may discourage service providers and malicious individuals from infringing users’ privacy rights, the effects of such measures are only observable when the offense is already committed and detected. On the other hand, the use of privacy-enhancing technologies (PET) from the design phase of systems can reduce the success rate of attacks on the privacy of users. The main objective of this thesis is to demonstrate the viability of the usage of PET as a means of location data protection in ridesharing services. This type of location-based ser- vice, by allowing drivers to share empty seats in vehicles, helps in reducing congestion, CO2 emissions and dependence on fossil fuels. In this thesis, we study the problems of synchro- nization of itineraries and matching in the ridesharing context, with an explicit consideration of location data (origin, destination) protection constraints. The solutions proposed in this thesis combine multimodal routing algorithms with sev- eral privacy-enhancing technologies such as homomorphic encryption, private set intersection, secret sharing, secure comparison of integers. They guarantee privacy properties including anonymity, unlinkability, and data minimization. In addition, they are compared to conven- tional solutions, which do not protect privacy. Our experiments indicate that location data protection constraints can be taken into account in ridesharing services without degrading their performance.

Mots-Clés / Keywords
Privacy; Ridesharing; Privacy enhancing technologies; Vie privée; Covoiturage; Technologies renforçant la vie privée;

142777
16462
13/12/2016

Monitoring et détection d'anomalie par apprentissage dans des infrastructures virtualisées

C.SAUVANAUD

TSF

Doctorat : INSA de Toulouse, 13 Décembre 2016, 174p., Président: E.EXPOSITO, Rapporteurs: S.BOUCHENAK, P.SENS, Examinateurs: K.LAZRI, Directeurs de thèse: M.KAANICHE, K.KANOUN , N° 16462

Lien : https://hal.laas.fr/tel-01445648

Diffusable

Plus d'informations

Abstract

Nowadays, the development of virtualization technologies as well as the development of the Internet contributed to the rise of the cloud computing model. A cloud computing enables the delivery of configurable computing resources while enabling convenient, on-demand network access to these resources. Resources hosted by a provider can be applications, development platforms or infrastructures. Over the past few years, computing systems are characterized by high development speed, parallelism, and the diversity of task to be handled by applications and services. In order to satisfy their Service Level Agreements (SLA) drawn up with users, cloud providers have to handle stringent dependability demands. Ensuring these demands while delivering various services makes clouds dependability a challenging task, especially because providers need to make their services available on demand. This task is all the more challenging that users expect cloud services to be at least as dependable as traditional computing systems. In this manuscript, we address the problem of anomaly detection in cloud services. A detection strategy for clouds should rely on several principal criteria. In particular it should adapt to workload changes and reconfigurations, and at the same time require short configurations durations and adapt to several types of services. Also, it should be performed online and automatic. Finally, such a strategy needs to tackle the detection of different types of anomalies namely errors, preliminary symptoms of SLA violation and SLA violations. We propose a new detection strategy based on system monitoring data. The data is collected online either from the service, or the underlying hypervisor(s) hosting the service. The strategy makes use of machine learning algorithms to classify anomalous behaviors of the service. Three techniques are used, using respectively algorithms with supervised learning, unsupervised learning or using a technique exploiting both types of learning. A new anomaly detection technique is developed based on online clustering, and allowing to handle possible changes in a service behavior. A cloud platform was deployed so as to evaluate the detection performances of our strategy. Moreover a fault injection tool was developed for the sake of two goals : the collection of service observations with anomalies so as to train detection models, and the evaluation of the strategy in presence of anomalies. The evaluation was applied to two case studies : a database management system and a virtual network function. Sensitivity analyzes show that detection performances of our strategy are high for the three anomaly types. The context for the generalization of the results is also discussed.

Résumé

Le cloud computing est un modèle de délivrance à la demande d’un ensemble de ressources informatiques distantes, partagées et configurables. Ces ressources, détenues par un fournisseur de service cloud, sont mutualisées grâce à la virtualisation de serveurs qu’elles composent et sont mises à disposition d’utilisateurs sous forme de services disponibles à la demande. Ces services peuvent être aussi variés que des applications, des plateformes de développement ou bien des infrastructures. Afin de répondre à leurs engagements de niveau de service auprès des utilisateurs, les fournisseurs de cloud se doivent de prendre en compte des exigences différentes de sûreté de fonctionnement. Assurer ces exigences pour des services différents et pour des utilisateurs aux demandes hétérogènes représente un défi pour les fournisseurs, notamment de part leur engagement de service à la demande. Ce défi est d’autant plus important que les utilisateurs demandent à ce que les services rendus soient au moins aussi sûrs de fonctionnement que ceux d’applications traditionnelles. Nos travaux traitent particulièrement de la détection d’anomalies dans les services cloud de type SaaS et PaaS. Les différents types d’anomalie qu’il est possible de détecter sont les erreurs, les symptômes préliminaires de violations de service et les violations de service. Nous nous sommes fixé quatre critères principaux pour la détection d’anomalies dans ces services : i) elle doit s’adapter aux changements de charge de travail et reconfiguration de services ; ii) elle doit se faire en ligne, iii) de manière automatique, iv) et avec un effort de configuration minimum en utilisant possiblement la même technique quel que soit le type de service. Dans nos travaux, nous avons proposé une stratégie de détection qui repose sur le traitement de compteurs de performance et sur des techniques d’apprentissage automatique. La détection utilise les données de performance système collectées en ligne à partir du système d’exploitation hôte ou bien via les hyperviseurs déployés dans le cloud. Concernant le traitement des ces données, nous avons étudié trois types de technique d’apprentissage : supervisé, non supervisé et hybride. Une nouvelle technique de détection reposant sur un algorithme de clustering est de plus proposée. Elle permet de prendre en compte l’évolution de comportement d’un système aussi dynamique qu’un service cloud. Une plateforme de type cloud a été déployée afin d’évaluer les performances de détection de notre stratégie. Un outil d’injection de faute a également été développé dans le but de cette évaluation ainsi que dans le but de collecter des jeux de données pour l’entrainement des modèles d’apprentissage. L’évaluation a été appliquée à deux cas d’étude : un système de gestion de base de données (MongoDB) et une fonction réseau virtualisée. Les résultats obtenus à partir d’analyses de sensibilité, montrent qu’il est possible d’obtenir de très bonnes performances de détection pour les trois types d’anomalies, tout en donnant les contextes adéquats pour la généralisation de ces résultats.

Mots-Clés / Keywords
Apprentissage automatique; Cloud computing; Détection d'anomalie; Injection de fautes; Monitoring; Virtualisation;

138473
16615
13/12/2016

Chiffrement homomorphe appliqué au retrait d'information privé

J.BARRIER

TSF

Doctorat : INSA de Toulouse, 13 Décembre 2016, 96p., Président: P.GABORIT, Rapporteurs: C.FONTAINE, Examinateurs: G.JAKLLARI, M.LAURENT, Directeurs de thèse: M.O.KILLIJIAN, C.AGUILAR MELCHOR , N° 16615

Lien : https://hal.laas.fr/tel-01682332

Diffusable

Plus d'informations

Abstract

Private information retrieval, named PIR, is a set of protocols that is a part of privacy enhancement technologies.Its major feature is to hide the index of a record that a user retrieved from the host.Without neglecting the scientific contributions of its authors, the usability of this protocol seems hard since that, for a user, it seems more and more efficient to receive all the records.Thus far, PIR can be achieved using mutually distrustful databases replicated databases, trusted hardware, or cryptographic systems.We focus on computational private information retrieval, and specifically on thus based on cryptographic systems.This decision is contingent to the spread of cryptographic systems based on lattices who provide specific properties.To demonstrate it usability, we offer an efficient and easy-to-use private Information retrieval based on homomorphic encryption.

Résumé

Le retrait d’information privé que nous nommons PIR, désigne un groupe de protocoles qui s’inscrit dans un ensemble plus vaste des technologies d’amélioration de la vie privée. Sa fonctionnalité principale est de dissimuler l’index d’un élément d’une liste accédée par un client au regard de son hôte. Sans négliger l’appart de leurs auteurs à la communauté scientifique, l’utilisabilité de ce groupe de protocoles semble limitée, car pour un client, télécharger l’intégralité de la liste est plus efficient. À ce jour, les PIR, se fondent sur des serveurs répliqués mutuellement méfiants, des périphériques de confiance ou bien des systèmes cryptographiques. Nous considérerons ici les retraits d’informations privés computationnels et plus particulièrement ceux reposant sur les réseaux euclidiens qui n’offrent des propriétés particulières, comme l’homomorphisme. Afin d’en démontrer l’utilisabilité, nous proposons un retrait d’information privé reposant sur un système cryptographique homomorphe performant et aisé d’utilisation.

Mots-Clés / Keywords
Chiffrement homomorphe; Réseaux euclidiens; Retrait d'information privée; Technologies de renforcement de la vie privée; Vie privée;

141935
16552
06/12/2016

Protection des systèmes informatiques vis à vis des malveillances : un hyperviseur de sécurité assisté par le matériel

B.MORGAN

TSF

Doctorat : INSA de Toulouse, 6 Décembre 2016, 146p., Président: M.KAANICHE, Rapporteurs: M.LAURENT, M.L.POTET, Examinateurs: S.DUVERGER, A.FRANCILLON, J.L.LANET, Directeurs de thèse: V.NICOMETTE, E.ALATA , N° 16552

Lien : https://hal.laas.fr/tel-01499283

Diffusable

Plus d'informations

Abstract

Computer systems are nowadays evolving quickly. The classical model which consists in associating a physical machine to every users is becoming obsolete. Today, computer resources we are using can be distributed any place on the Internet and usual workstations are not systematically physical machines anymore. This fact is enlightening two important phenomenons which are leading the evolution of the usage we make of computers : Cloud computing and hardware virtualization. Cloud computing enables users to exploit computers resources, with a fine grained granularity and a non predefined amount of time, which are available into a cloud of resources. Cloud systems must be able to adapt quickly to a fluctuating demand and being able to reconfigure themselves quickly. One way to reach these goals is dependant of the usage of virtual machines and the associated virtualization techniques. Even if computer resource virtualization has not been introduced by the cloud, the arrival of the cloud substantially increased its usage. Nowadays, all cloud providers are using virtual machines, which are much more deployable and movable than physical machines. Thus, even if we can see that virtualization is a real interest for modern computer science, it is either clear that its implementation is adding complexity to computer systems, both at software and hardware levels. From this observation, it is legitimate to ask the question about computer security in this context, with an increased architecture complexity and more and more privileged execution modes. Given the presence of multiple virtual machines, which do not trust each other, and which are executing in the same physical machine, will a compromised virtual machine be able to exploit one vulnerability ? Isn’t it necessary to consider new security architectures taking these risks into account ? This thesis is trying to answer to these questions. In particular, we are introducing state of the art security issues in virtualized environment of modern architectures. Starting from this work, we are proposing an original architecture ensuring the integrity of a software being executed on a computer system, regardless its privilege level. This architecture is both using software, a security hypervisor, and hardware, a trusted peripheral, we have both designed and implemented.

Résumé

L’utilisation des systèmes informatiques est aujourd’hui en pleine évolution. Le modèle classique qui consiste à associer à chaque utilisateur une machine physique qu’il possède et dont il va exploiter les ressources devient de plus en plus obsolète. Aujourd’hui, les ressources informatiques que l’on utilise peuvent être distribuées n’importe où dans l’Internet et les postes de travail du quotidien ne sont plus systématiquement des machines réelles. Cette constatation met en avant deux phénomènes importants qui sont à l’origine de l’évolution de notre utilisation de l’informatique : le Cloud computing et la virtualisation. Le Cloud computing (ou informatique en nuage en français) permet à un utilisateur d’exploiter des ressources informatiques, de granularités potentiellement très différentes, pendant une durée variable, qui sont à disposition dans un nuage de ressources. L’informatique en nuage doit donc pouvoir s’adapter à la demande et facilement se reconfigurer. Une manière d’atteindre ces objectifs nécessite notamment l’utilisation de machines virtuelles et des techniques de virtualisation associées. Même si la virtualisation de ressources informatiques n’est pas née avec le Cloud, l’avènement du Cloud a considérablement augmenté son utilisation. L’ensemble des fournisseurs d’informatique en nuage s’appuient aujourd’hui sur des machines virtuelles, qui sont beaucoup plus facilement déployables et déplaçables que des machines réelles. Ainsi, s’il est indéniable que l’utilisation de la virtualisation apporte un véritable intérêt pour l’informatique d’aujourd’hui, il est par ailleurs évident que sa mise en oeuvre ajoute une complexité aux systèmes informatiques, complexité à la fois logicielle (gestionnaire de machines virtuelles) et matérielle (nouveaux mécanismes d’assistance à la virtualisation intégrés dans les processeurs). À partir de ce constat, il est légitime de se poser la question de la sécurité informatique dans ce contexte où l’architecture des processeurs devient de plus en plus complexe, avec des modes de plus en plus privilégiés. Étant donné la complexité des systèmes informatiques, l’exploitation de vulnérabilités présentes dans les couches privilégiées ne risque-t-elle pas d’être très sérieuse pour le système global ? Étant donné la présence de plusieurs machines virtuelles, qui ne se font pas mutuellement confiance, au sein d’une même machine physique, est-il possible que l’exploitation d’une vulnérabilité soit réalisée par une machine virtuelle compromise ? N’est-il pas nécessaire d’envisager de nouvelles architectures de sécurité prenant en compte ces risques ? C’est à ces questions que cette thèse propose de répondre. En particulier, nous présentons un panorama des différents problèmes de sécurité dans des environnements virtualisés et des architectures matérielles actuelles. À partir de ce panorama, nous proposons dans nos travaux une architecture originale permettant de s’assurer de l’intégrité d’un logiciel s’exécutant sur un système informatique, quel que soit son niveau de privilège. Cette architecture est basée sur une utilisation mixte de logiciel (un hyperviseur de sécurité développé par nos soins, s’exécutant sur le processeur) et de matériel (un périphérique de confiance, autonome, que nous avons également développé).

Mots-Clés / Keywords
Sécurité; Virtualisation; Hyperviseur; Test d’intégrité; Périphérique; Security; Virtualization; Hypervisors; Integrity checking; Peripherals;

139174
16510
21/11/2016

Contribution à la conception et à la vérification de systèmes temps réel - Focus sur l'ordonnancement temps réel

P.E.HLADIK

VERTICS

Habilitation à diriger des recherches : 21 Novembre 2016, 153p., Président: J.C.FABRE, Rapporteurs: L.GEORGE, E.GROLLEAU, G.LIPARI, Examinateurs: N.NAVET, F.SINGHOFF , N° 16510

Lien : https://hal.archives-ouvertes.fr/tel-01451027

Diffusable

Plus d'informations

Résumé

Cette Habilitation à Diriger les Recherches est l'occasion de présenter mes travaux de recherche sur la conception et la validation des systèmes embarqués critiques. Après une introduction du contexte de recherche, l'exposé se focalisera sur les problématiques de l’ordonnancement temps réel et sur les diverses problématiques que j'ai pu aborder dans ce contexte. Une attention particulière sera portée à la configuration d'architectures avioniques ainsi qu’à l'évaluation des politiques d'ordonnancement multiprocesseur pour l'automobile. L’exposé se conclura sur les perspectives envisagées pour poursuivre ces travaux et les étendre à la génération d’exécutable temporellement fiable.

Mots-Clés / Keywords
Conception; Ordonnancement; Système embarqué; Temps réel; Validation;

138933
16391
17/11/2016

Inférence et modèles de données personnelles : mobilité sociale, proximité spatiale

R.PASQUA

TSF

Doctorat : Université de Toulouse III - Paul Sabatier, 17 Novembre 2016, 96p., Président: J.MOTHE, Rapporteurs: C.MAGNIEN, R.BALDONI, Examinateurs: S.BEN MOKHTAR, Directeurs de thèse: M.KAANICHE, G.TREDAN , N° 16391

Lien : https://hal.laas.fr/tel-01416982

Diffusable

Plus d'informations

Abstract

The wide diffusion of smart portable devices allows the collection of a big amount of data concerning the activities of users from mobile apps. We focus our attention on location data, i.e. mobility traces, of a set of users in a crowd. Data collected from these mobile systems are studied following two axies : – Mobility models are used to simulate the behavior of users to develop opportunistic forwarding algorithms. We compare real and synthetic mobility traces to show the distance between the reality and the models. – Information on mobility may endanger the privacy of users. We analyze the impact of such information on privacy of users. The main contributions are : – We analyze the spatial and social properties of human motion from real traces collected by a highly accurate experimental localization system. – We compare the real traces with synthetic mobility traces generated from seven popular mobility models – We provide an inference algorithm based on co-location of users and we show its efficiency on different datasets. – We quantify the effect of probabilistic co-location information by means of a novel colocation attack.

Résumé

La diffusion massive de dispositifs portables, de plus en plus utilisés pour le traitement et la communication de l’information, permet la collecte d’importantes masses de données liées à l’activité des utilisateurs sur des applications mobiles. Nous nous intéressons aux données de localisation (les traces de mobilité) qui sont issues de systèmes mobiles formés par un groupe d’utilisateurs. Les données de mobilité produites dans un système mobile sont étudiées suivant deux axes : – L’utilisation des modèles de mobilité est à la base du développement d’algorithmes de communication dédiés au systèmes mobiles. Les données de mobilité réelles concernant les utilisateurs vont nous permettre de comparer les données de mobilité synthétiques utilisées dans la simulation avec la réalité qu’ils sont censés décrire. – La manipulation des données de mobilité réelles implique une réflexion sur les conséquences que les informations extraites de ces données ont relativement à la protection de la vie privée des utilisateurs. Les contributions sur ces deux fronts sont les suivantes : – Une analyse fine des propriétés spatiales et sociales d’un ensemble de traces de mobilité réelles collecté expérimentalement à l’aide d’une plateforme à haute precision. – Une comparaison exploratoire entre des traces de mobilité réelles et des traces de mobilité synthétiques générées à partir de sept différents modèle de mobilité. – La conception et l’analyse d’un algorithme d’inférence par co-localisation décorrélée des informations sur la localisation des utilisateurs ciblés. – La quantification du potentiel des données de co-localisation non-déterministes sur la perte de protection de la vie privée d’un ensemble d’utilisateurs.

Mots-Clés / Keywords
Systèmes mobiles; Systèmes distribués; Modèles de mobilité; Exploration des données; Réseaux sociaux; Protection de la vie privée; Mobile systems; Distributed systems; Mobility models; Data mining; Social network; Privacy;

138215
16307
26/09/2016

Simulation product fidelity: A qualitative & quantitative system engineering approach

S.PONNUSAMY

ISI

Doctorat : Université de Toulouse III - Paul Sabatier, 26 Septembre 2016, 192p., Président: A.NKESTA, Rapporteurs: G.WAINER, A.HADJALI, Examinateurs: M.PANTEL, H.VANGHELUWE, Directeurs de thèse: V.ALBERT , N° 16307

Lien : https://hal.laas.fr/tel-01376060

Diffusable

Plus d'informations

Résumé

La modélisation informatique et la simulation sont des activités de plus en plus répandues lors de la conception de systèmes complexes et critiques tels que ceux embarqués dans les avions. Les décisions prises sur la conception de ces systèmes à partir des moyens de simulation doivent être sûres. L’étude a exploré le domaine large variant de moins formelle théorie d’ingénieur de system utilisant ontologies à plus formelle théorie de simulation. Les travaux réalisés sont développement et validation d’ontologie et formalisation de théorie d’inclusion entre domaine de simulation et domaine d’utilisation, définir et développer des méthodes semi-automatiques utilisant de ontologie de Modélisation et Simulation pour identifier et sélectionner une abstraction consistent par rapport aux objectives de simulation, formalisation et raffinement de théorie de relation de simulation et approximatif pour identifier les abstractions des systèmes des transitions avec des ensembles d’états et d’actions finis et approximativement équivalent par rapport aux niveaux de fidélité désiré par le utilisateur de simulation, développement des outils permettant évaluation de fidélité, appliquer la méthode et démontrer la preuve de concept sur des cas d’application fournis par l’entreprise.

Abstract

In using Modeling and Simulation for the system Verification & Validation activities, often the difficulty is finding and implementing consistent abstractions to model the system being simulated with respect to the simulation requirements. A proposition for the unified design and implementation of modeling abstractions consistent with the simulation objectives based on the computer science, control and system engineering concepts is presented. It addresses two fundamental problems of fidelity in simulation, namely, for a given system specification and some properties of interest, how to extract modeling abstractions to define a simulation product architecture and how far does the behaviour of the simulation model represents the system specification. A general notion of this simulation fidelity, both architectural and behavioural, in system verification and validation is explained in the established notions of the experimental frame and discussed in the context of modeling abstractions and inclusion relations. A semi-formal ontology based domain model approach to build and define the simulation product architecture is proposed with a real industrial scale study. A formal approach based on game theoretic quantitative system refinement notions is proposed for different class of system and simulation models with a prototype tool development and case studies. Challenges in research and implementation of this formal and semi-formal fidelity framework especially in an industrial context are discussed.

137613
16214
15/02/2016

Improving cooperation between systems engineering and project management in engineering projects - Towards the alignment of systems engineering and project management standards and guides

R.XUE

ISI

Doctorat : INSA de Toulouse, Février 2016, 135p., Président: B.EYNARD, Rapporteurs: E.BONJOUR, J.YANG, Examinateurs: , Directeurs de thèse: C.BARON, P.ESTEBAN , N° 16214

Lien : https://hal.laas.fr/tel-01376031

Diffusable

Plus d'informations

Abstract

In a highly competitive economic context, companies need to improve their performance in entire life cycle of a product. It is often found that company organization leads to segregation between systems engineering and project management, with the result that decision-making is sometimes misguided and may compromise project execution, whereas, although they each have specific visions and targets, these disciplines are nonetheless intended to serve a common objective, which is to satisfy the customer. So it is an important issue to facilitate their adoption and their joint deployment within the company, in order to improve decision-making in engineering projects. The proposal of the thesis involves bringing systems engineering and project management closer together in order to help both systems engineers and project managers assess the project progress. Based on this assessment, they can adjust the project policy dynamically through the project life cycle. In this thesis, we first harmonize the standards and guides from systems engineering and project management domains and define an integrated process groups organized into 3 groups of processes. Then we identify a set of key indicators related to these process groups, indicators are then valuated and give the evaluation of the indicator based on the analytic hierarchy process method to integrate the views of systems engineers and project managers in an additional way. On the basis of these indicators, we use the critical path method and earned value management method to assess the project progress values and define two project indexes to assess and insight the project progress easier.

Résumé

L’ingénierie système et le management de projet sont deux disciplines essentielles dans l'industrie, et représentent deux facteurs essentiels pour la réussite des projets. Cependant, depuis de nombreuses années, s’est établie une barrière culturelle entre les praticiens de l'ingénierie des systèmes et ceux de la gestion de projet. Alors que l'ingénierie des systèmes s’intéresse aux éléments techniques, le management de projet a la responsabilité globale du projet ; de ce fait, certains considèrent que leurs activités sont indépendantes plutôt que de les considérer comme des parties d’un tout. Par conséquent, le travail coûte souvent plus, prend plus de temps, et fournit une solution non optimale pour le client. Alors comment faire pour supprimer les barrières entre les différentes équipes, les pratiques et les connaissances, afin de prendre les décisions dans le projet sur la base des vues intégrées de ces parties prenantes ? La réponse à cette question est essentielle pour assurer le succès du projet et améliorer la performance en entreprise. Cette thèse se place à l'intersection de plusieurs disciplines, notamment l’ingénierie système et le management de projet. Elle promeut le développement collaboratif de systèmes multi-technologies et la prise de décision partagée entre les parties prenantes. Notre premier objectif porte sur l'harmonisation des descriptions des processus du management de projet et d'ingénierie des systèmes sur la base des normes et guides de bonnes pratiques internationaux. Notre proposition est d'élaborer un cadre de processus fondamentaux et alignés pour supporter le management des processus d’ingénierie système qui peut être adapté à des entreprises de profils différents (PME, ETI ou grands groupes). Pour cela, nous comparons les cinq normes et guides d'ingénierie des systèmes (ANSI/EIA 632, ISO/IEC 15288, IEEE 1220, INCOSE Handbook et Sebok) et les trois normes et guides de gestion de projets (PMBoK, ISO 21500, ISO/IEC 29110) afin d'évaluer la cohérence de ces documents de référence en ce qui concerne les processus qu'ils décrivent et qui sont impliqués dans l'ensemble du projet. Au-delà de l'intégration des pratiques par l'utilisation de ce cadre, nous offrons aussi aux ingénieurs systèmes et managers un ensemble d'indicateurs qu'ils peuvent partager afin de faciliter la coopération entre eux et leur permettre une prise de décision collaboration dans le suivi et le pilotage des projets. Les indicateurs sont évalués à la fois par les ingénieurs systèmes et les managers et leur importance est décidée collaborativement à l’aide d’une méthode multicritère d’aide à la décision (AHP). Ensuite, sur la base des valeurs des indicateurs, les méthodes du chemin critique (CPM) et de gestion adaptative de la valeur acquise (EVM) sont utilisées pour évaluer l’avancement du projet et du développement du système. Quatre indices sont ainsi définis pour supporter le processus de prise de décision tout au long du projet afin de permettre la prise de décisions collaborative et de rendre celle-ci plus rationnelle.

Mots-Clés / Keywords
Decision support system; Engineering design process; Project management; Systems engineering;

137167
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/