Retour au site du LAAS-CNRS

Laboratoire d’analyse et d’architecture des systèmes
Choisir la langue : FR | EN

35documents trouvés

17017
10/01/2017

Plateforme de calcul parallèle "Design for Demise"

B.PLAZOLLES

CDA

Doctorat : Université de Toulouse III - Paul Sabatier, 10 Janvier 2017, 202p., Président: T.GAYRAUD, Rapporteurs: D.DEFOUR, R.MOLINA, Examinateurs: M.BALAT-PICHELIN, P.COCQUEREZ, Directeurs de thèse: D.EL BAZ, M.SPEL , N° 17017

Non diffusable

138893
16476
15/12/2016

Towards autonomic and cognitive IoT systems, application to patients’ treatments management

E.MEZGHANI

SARA

Doctorat : INSA de Toulouse, 15 Décembre 2016, 181p., Président: M.MOSBAH, Rapporteurs: M.LAMOLLE, M.MRISSA, Examinateurs: M.DA SILVEIRA, W.GAALOUL, C.PRUSKI, Directeurs de thèse: K.DRIRA, E.EXPOSITO , N° 16476

Non diffusable

Plus d'informations

Résumé

La prolifération des objets connectés ainsi que le développement du web et des applications mobiles contribuent à la numérisation de l'univers. Par ailleurs, l’adoption des objets connectés favorise la collecte en temps réel des données du monde physique, ce qui offre des nouvelles opportunités pour les entreprises à prendre des décisions plus précises au bon moment. Par contre, l’intégration des objets connectés engendre un ensemble de défis liés à la complexité des systèmes connectés, à la gestion des big data, ainsi qu’à leur hétérogénéité. Pour gérer la complexité de conception, nous proposons d'automatiser la gestion des systèmes connectés en se basant sur l’informatique autonomique. Cependant, l'informatique autonomique seule ne suffit pas pour le développement des systèmes intelligents permettant de générer les décisions. Par conséquent, nous proposons une méthodologie collaborative pour la conception des systèmes autonomique cognitive intégrant des objets connectés. Cette méthodologie englobe un ensemble de patrons de conception dont nous avons défini pour modéliser la coordination dynamique des processus autonomiques pour gérer l’évolution des besoins du système, et pour enrichir les systèmes avec des propriétés cognitives qui permettent de comprendre les données et de générer des nouvelles connaissances. Notre objectif consiste à aider l'architecte à choisir le patron ou la combinaison des patrons pour concevoir une architecture flexible capable de répondre aux besoins complexes du système. De plus, pour gérer les problèmes liés à la gestion des big data et à la scalabilité du système, nous proposons une plate-forme sémantique supportant le traitement des grandes quantités de données afin d’intégrer des sources de données distribuées et hétérogènes déployées sur le cloud pour générer des connaissances qui seront exposées en tant que service (KaaS). L'architecture proposée étend les architectures de référence proposées par le NIST, décrivant le big data et cloud, avec un modèle sémantique qui permet aux machines de comprendre les données reçues, les préparer et les harmoniser pour une meilleure analyse et visualisation. Plus précisément, nous avons instancié notre KaaS dans le domaine médical pour la gestion de l’évolution de l’état du patient et la détection des anomalies personnalisées au bon moment. Ainsi, nous avons élaboré le Wearable Healthcare Ontology (WH_O) décrivant les caractéristiques des dispositifs utilisés pour mesurer les signes vitaux du patient. En se basant sur des technologies de big data, nous avons proposé une implémentation du KaaS adoptant une combinaison des patrons de conception proposés pour le développement des systèmes intelligents. Nous avons également évalué la performance de la plate-forme sur le cloud en termes de temps de réponse et de scalabilité. Finalement, pour développer des systèmes intelligents, nous proposons d'enrichir notre KaaS avec des nouvelles fonctionnalités cognitives représentant la connaissance médicale et le processus de personnalisation pour automatiser la prise de décision. Ainsi, une méthode pour extraire et formaliser les connaissances médicales en collaborant avec des experts est proposée. L’application de cette méthodologie génère un modèle sémantique flexible nommé Treatment Plan Ontology (TPO) qui décrit les interventions médicales et les règles de décision pour le traitement d’une maladie chronique. Ainsi, nous avons proposé un algorithme de planification qui intègre TPO avec DrugBank afin de fournir des décisions personnalisées par rapport au profil du patient. Nous avons évalué l’algorithme de planification et la flexibilité de TPO en simulant des cas cliniques réels et en comparant les recommandations générées à ce que les experts déclarent. En variant la configuration des ressources allouées (CPU et mémoire), nous avons évalué la performance du système sur le cloud et fourni des recommandations selon les besoins du système.

Abstract

Nowadays, the adoption of the Internet of Things (IoT) drastically witnesses an increase in different domains, and contributes to the fast digitalization of the universe. Henceforth, next generation of IoT-based systems are set to become more complex to design and manage. Collecting real-time IoT generated data unleashes a new wave of opportunities for business to take more precise and accurate decisions at the right time. Nonetheless, a set of challenges including the complexity of IoT-based systems and the management of the ensuing big and heterogeneous data as well as the system scalability; need to be addressed for the development of flexible smart IoT-based systems that drive the business decision-making. With respect to challenge which relates to the complexity of IoT management, we propose to automate the management of IoT-based systems based on an autonomic computing approach. However, autonomic computing alone is not enough for the development of smart IoT-based systems. Indeed, these systems should implement cognitive capabilities that allow them learning and generating decisions at the right time. Consequently, we propose a model-driven methodology for designing smart IoT-based systems. We defined within this methodology a set of autonomic cognitive design patterns that aim at (1) delineating the dynamic coordination of the management processes to deal with the system’s context changeability and requirements evolution at run-time, and (2) adding cognitive abilities to IoT-based systems to understand big data and interact with human through generating new insights. Our ultimate goal was to assist the architect when designing flexible smart IoT-based systems by selecting the right pattern or combination of patterns to solve complex requirements. With respect to challenges which relate to big data and scalability management, we propose a generic semantic big data platform that integrates heterogeneous distributed data sources deployed on the cloud, and generates knowledge that will be exposed as a service (Knowledge as a Service–KaaS). The proposed architecture represents an extension of the NIST Big Data and Cloud Computing reference architectures with a semantic layer that enables the machines collecting and interpreting the received data, curating and harmonizing it for better analytic and visualization. More specifically, we are interested in healthcare as an applicative domain. Thus, based on big data tools for data stream processing, we proposed a cognitive monitoring system implementing a combination of the proposed patterns for managing the patient health based on wearables and promptly detecting personalized anomalies. Hence, we elaborated the Wearable Healthcare Ontology (WH_O) for the integration of heterogeneous wearable data. The proposed system is deployed within the KaaS, and its performance (in terms of response time and scalability) when processing huge amount of heterogeneous data streams has been evaluated following different KaaS configurations. Finally, to provide smart IoT-based systems able to reason and generate recommendations, we enriched the proposed system with new cognitive mechanisms including the medical procedural knowledge and the personalization process. Thus, a methodology for extracting and formalizing the medical knowledge based on the collaboration of medical experts is proposed. The output of this methodology is a flexible semantic model named Treatment Plan Ontology (TPO) that describes the medical interventions. We also defined an Ontology-based planning algorithm that integrates TPO with external existing knowledge sources in order to provide personalized decisions concerning the patient treatment. We evaluated the proposed algorithm through simulating real clinical use cases and comparing the generated recommendations to the experts’ advice. We highlighted also the system performance on the cloud, and provided recommendations for selecting the appropriate IT configuration based on the system requirements.

Mots-Clés / Keywords
Big data; Gestion des systèmes médicaux; Informatique autonomique; Informatique cognitive; Système guidé par ontologie; Web sémantique;

138573
16330
06/07/2016

An outright open source approach for simple and pragmatic Internet exchange

M.BRUYERE

SARA

Doctorat : Université de Toulouse III - Paul Sabatier, 6 Juillet 2016, 109p., Président:, Rapporteurs: O.BONAVENTURE, O.FESTOR, Examinateurs: T.GAYRAUD, S.UHLIG, J.BAYLEY, A.NIPPER, Directeurs de thèse: P.OWEZARSKI , N° 16330

Lien : https://hal.laas.fr/tel-01393222

Diffusable

Plus d'informations

Résumé

L’Internet, le réseaux des réseaux, repose, en tant que ressource publique, sur l’inter opérabilité et la confiance. Les points d’échange Internet (IXP), qui interconnectent des opérateurs réseaux de types et tailles différents, jouent à ce titre un rôle majeur en tant que lieux d’échange neutres et indépendants. Le service fondamental offert par un IXP est une fabrique de commutation de niveau 2 partagée. Aujourd’hui, pour fournir ce service de base, les IXP sont obligés d’utiliser des technologies propriétaires qui ne répondent pas correctement à toutes leurs exigences. Cette situation est principalement dûe au fait que les plans de contrôle et de données sont intriqués sans possibilités de programmer finement le plan de commutation. Le "Software Defined Networking" (SDN), nouveau paradigme découplant les plans de contrôle et de données utilise le protocole OpenFlow qui permet de programmer le plan de commutation Ethernet haute performance. Contrairement à tous les projets de recherches qui centralisent la totalité du plan de contrôle au dessus d’OpenFlow, altérant la stabilité des échanges, nous proposons d’utiliser OpenFlow pour gérer le plan de contrôle spécifique à la fabrique de commutation. Dans cette thèse, nous proposons "Umbrella", une fabrique de commutation simple et pragmatique répondant à toutes les exigences des IXPs et en premier lieu à la garantie d’indépendance et de neutralité des échanges. Dans la première partie, nous présentons l’architecture "Umbrella" en détail avec l’ensemble des tests et validations démontrant la claire séparation du plan de contrôle et du plan de données pour augmenter la robustesse, la flexibilité et la fiabilité des IXPs. Dans la second partie nous verrons qu’avant toute mise en oeuvre, il est primordial de tester chaque équipement afin de vérifier qu’il répond aux attentes, mais les solutions utilisées pour cela sont toutes commerciales et propriétaires, et ne répondent donc pas aux besoins techniques d’indépendance et de neutralité. Pour les besoins de tests de validations nécessaires des équipements, nous avons développé l’"Open Source Network Tester" (OSNT), un système entièrement open source "hardware" de génération et de capture de trafic. Avant la mise en oeuvre d’équipement Openflow comme Umbrella, Nous avons rajouté à OSNT l"OpenFLow Operations Per Second Turbo" (OFLOPS Turbo) pour évaluer les commutateurs OpenFlow 10Gbps. Le dernier chapitre présente le déploiement de l’architecture "Umbrella" en production sur un point d’échange régional. Les outils de test que nous avons développés ont été utilisés pour vérifier les équipements déployés en production. Ce point d’échange, stable depuis maintenant un an, est entièrement géré et contrôlé par une seule application Web remplaçant tous les systèmes complexes et propriétaires de gestion utilisés précédemment.

Abstract

The Internet is indispensable for our life today and for our globalized financial economy. The effectiveness of the Internet as a public resource depends upon interoperability and trust. Free and open source software promotes the development of the Internet as a public resource. Physical location Internet eXchange Points (IXP) are highly valuable for the Internet as neutral exchange places where all type and size of networks can exchange traffic. The fundamental service offered by IXP is a shared layer2 switching fabric. IXPs are fastened by using close source technology for their switching fabric. Although this should be a basic functionality, today solutions never address their basic requirements properly. Today’s network solutions are inflexible as proprietary closed implementation of a distributed control plane tight together with the data plane. Software Defined Networking (SDN) is an emerging paradigm decoupling the control and data planes, on opening high performance forwarding plane with OpenFlow. The goal of this thesis is to propose an IXP pragmatic Openflow switching fabric, addressing the critical requirements and affording greater simplicity and flexibility. Few SDN solutions have been presented already but all of them propose fuzzy layer 2 and 3 separation. For a enhanced stability not all control planes functions can be decoupled from the data plane. As an other goal statement, networking testing tools are essential for qualifying networking equipment. Network hardware monitoring and testing being critical for computer networks, current solutions are both very expensive, inflexible and not open source. The experience in deploying Openflow in production networks has highlight significant limitations in the support of the protocol by hardware switches. Open source hardware solutions give total flexibility and reproducibility for testing and selecting suitable hardware equipment to go to production. We present Umbrella, a new SDN-enabled IXP fabric architecture, that aims to promote strengthening the separation of control and data plane to increase robustness, flexibility and reliability of the IXP. Umbrella abolishes broadcasting with a pseudo wire and segment routing approach. We demonstrated for an IXP fabric that not all the control plane can be decoupled from the date plane. We show that Umbrella can scale and recycle legacy non OpenFlow core switch to reduce migration cost. Into the testing tools lacuna we launch the Open Source Network Tester (OSNT), a fully open-source traffic generator and capture system. Additionally, our approach has proved less costly than comparable commercial systems while achieving comparable levels of precision and accuracy; all within an open-source framework extensible with new features to support new applications, while permitting validation and review of the implementation. Furthermore we present the integration of OpenFLow Operations Per Second (OFLOPS), an OpenFlow switch evaluation platform, with the OSNT platform, a hardware-accelerated traffic generation and capturing platform. We demonstrate the real flexibility and benefit of the Umbrella architecture persuading ten Internet operators to migrate the entire Toulouse IXP. The hardware testing tools we have developed have been used to qualify the hardware which has been deployed in production. The TouIX has been running stable for a year. It is fully managed and monitored through a single web application removing all the complex legacy management systems.

137757
16258
04/07/2016

MULUS : un réseau social distribué pour une consommation sélective de contenus composites

A.GUEDHRIB

SARA

Doctorat : INSA de Toulouse, 4 Juillet 2016, 159p., Président: T.VILLEMUR, Rapporteurs: Y.CARDINALE VILLARREAL, M.LAMOLLE, Examinateurs: M.GINESTE, M.JMAIEL, W.LOUATI, Directeurs de thèse: K.DRIRA, E.EXPOSITO , N° 16258

Lien : https://hal.laas.fr/tel-01376046

Diffusable

Plus d'informations

Abstract

With the evolution of new technologies, social networks (SN) are extensively used for data sharing between users. They have two major shortcomings. First, much of the shared content does not interest those users, which unnecessary increases the bandwidth consumption and degrades the SN quality of service. Second, these SNs use a centralized infrastructure managed by a service provider. This latter imposes some constraints related to storage capacity and offered services and can also involve fees for using the SN. In this context, we developed a distributed SN (DSN) based on peer-to-peer (DHT) publish/ subscribe system. It deploys the event service on user devices connected in P2P manner. Our DSN ensures selective data sharing where users receive content generated according to their interests, which are specified using the publish/subscribe paradigm. Our DSN expresses user interests with semantic and composites subscriptions. To address the semantic aspect of subscriptions, we proposed to use a structured domain ontology, which is shared between all users. Then, we proposed an indexing method of this ontology based on prime numbers. This method provides a semantic routing on structured P2P topology (DHT) of our system. To preserve the expressivity of composite interest, we have defined a cube structure to index subscriptions on the DHT nodes. This structure provides filtering of composite events by a simple binary research performed on this cube. Although DHT used in our DSN provides self-organizing nodes, handling data loses still remains a challenge with highly dynamic nodes. Then, we proposed a replication strategy based on nodes availability in order to maximize the availability rate desired by the user. Experimental results using the FreePastry simulator demonstrate the outperformance of our DSN over existing SNs, in terms of scalability, latency and network overhead.

Résumé

Avec l’évolution des nouvelles technologies, les réseaux sociaux (RS) sont fréquemment utilisés pour partager des données entre plusieurs utilisateurs. Ces RS présentent deux limitations majeures. D’une part, une grande partie des contenus partagés n’intéresse pas ces utilisateurs, ce qui augmente inutilement la consommation de la bande passante et dégrade la qualité de service de ces RS. D’autre part, ces RS utilisent une infrastructure centralisée gérée par un fournisseur de services. Ce dernier impose des contraintes liées à l’espace de stockage et aux services offerts comme il peut exiger des frais pour l’utilisation du RS. Dans ce contexte, nous avons développé un RS distribué (RSD) en pair-à-pair (DHT) fondé sur un système publier/souscrire. Son service d’évènements est déployé sur les équipements des utilisateurs en les communicant en P2P pour surmonter les contraintes des fournisseurs de services. Notre RSD assure un partage de données sélectif où les utilisateurs reçoivent des contenus selon leurs intérêts exprimés grâce au paradigme publier/souscrire. Notre RSD permet de décrire les intérêts des utilisateurs par des souscriptions sémantiques et composites. Pour le traitement de la sémantique, nous avons utilisé une ontologie de domaine structurée et partagée entre les utilisateurs. Nous avons proposé ensuite une méthode d’indexation de cette ontologie fondée sur les nombres premiers. Cette méthode offre un routage sémantique sur une architecture P2P structurée (DHT) de notre plateforme. Pour exprimer les intérêts composés, nous avons défini une structure de cube pour l’indexation des souscriptions composites sur les noeuds DHT. Cette structure assure le filtrage des évènements composites par une simple recherche binaire dans ce cube. Bien que l’architecture de notre RSD assure l’auto-organisation des noeuds, la disponibilité des données et leur livraison sans perte reste encore un défi pour des noeuds très dynamiques. Nous avons alors proposé une stratégie de réplication selon la disponibilité des noeuds en cherchant à atteindre la disponibilité souhaitée par l’utilisateur. Des expérimentations menées à l’aide du simulateur FreePastry ont montré l’efficacité de notre RSD par rapport aux RS existants, en termes de scalabilité, temps de réponse et trafic sur le réseau.

Mots-Clés / Keywords
Réseau social; Publier/souscrire; Pair-à-pair; Sémantique; Evènement composite; Forte dynamicité; Social network; Publish/subscribe; Peer-to-peer; Semantic; Composite event; Churn;

137373
16009
15/01/2016

Synthèse de commande pour des réseaux de communication énergétiquement performants

W.ZOUAOUI

SARA, MAC

Doctorat : Université de Toulouse III - Paul Sabatier, 15 Janvier 2016, 122p., Président: T.GAYRAUD, Rapporteurs: D.SIMON, A.MELLOUK, Examinateurs: L.GALLON, Directeurs de thèse: C.ALBEA SANCHEZ, Y.LABIT , N° 16009

Lien : https://tel.archives-ouvertes.fr/tel-01280075

Diffusable

Plus d'informations

Abstract

The computer tools (as the routers and calculators among others) present a high energy consumption. This problem has been already included in mobile networks. The question of energy is just beginning to be considered for "fixed" large-scale systems that reach nowadays high sizes. The objective of this thesis is to address the problem of energy consumption in wired communication networks : provide a certain level of quality of service (QoS) with respect to the packet lost, response speed and robustness with respect to different sampling periods while controlling power consumption of the system. The goal is to design a method from the theory of control, which guarantees these QoS. This technique is applied locally to a network equipment (router, switch . . . ) and the control law used to distribute temporally the traffic through a controlled node in the wired communications networks. In this work, we considere that the communication between nodes are performed by routers ALR type. In order to deal with energy reduction problem, we propose an extended ALR energy model adapted to control theory. For this model, we need to choose two parameters ( , ) allowing to choose the queue length reference, qref , and the related update timewindow, Tqref . These parameters have been chosen after performing some simulations with different combinations of parameters ( , ). We have seen that the variation of these two parameters provide an impact over the QoS as well as the energy reduction. The theoretical results are then tested in Matlab-Simulink as well as some experiments under the simulator NS-2. Simulations showed that the energy consumption in communications networks is reduced while ensuring a certain level of QoS.

Résumé

Les outils informatiques (comme les routeurs et calculateurs entre autres) sont des consommateurs accrus d’énergie. Cette problématique a été déjà prise en compte dans les réseaux mobiles. La question de l’énergie commence juste à être prise en compte pour les systèmes «fixes» à grande échelle qui atteignent de nos jours des tailles impressionnantes. L’objectif de cette thèse est de traiter le problème de la consommation de l’énergie dans les réseaux de communication filaires : fournir un certain niveau de qualité de service (QdS) par rapport à la perte des paquets, la vitesse de réponse et la robustesse par rapport aux différentes périodes d’échantillonnages tout en contrôlant la puissance consommée du système. Le but est de concevoir une méthode à partir de la théorie de la commande, qui consiste à garantir un certain nombre de paramètres de QdS. Cette technique est appliquée au niveau local d’un équipement réseau (routeur, switch . . . ). La loi de commande permet de distribuer temporellement le trafic qui traverse un noeud contrôlé dans les réseaux de communication filaires. Dans ce travail, nous avons considéré que les noeuds de communications sont des routeurs de type ALR. Pour traiter le problème de la consommation énergétique dans les réseaux de communication filaires, nous avons proposé un modèle énergétique ALR étendu adapté à la théorie de commande. Pour ce modèle, nous avons besoin de choisir deux paramètres ( , ), permettant de choisir la taille de file d’attente de référence qref et sa fenêtre temporelle d’actualisation Tqref .Ce deux paramètres ont été choisis à partir de plusieurs simulations avec différentes combinaisons des paramètres ( , ). Nous avons vu que la variation de ces deux paramètres permet d’agir énormément sur la QdS ainsi que sur la quantité d’énergie réduite. Les résultats théoriques sont ensuite testés sur Matlab-Simulink, puis sur le simulateur de réseaux NS-2. Les simulations ont montré que la consommation énergétique dans les réseaux de communication est bien réduite tout en garantissant un certain niveau de QdS.

Mots-Clés / Keywords
Réseaux de communication; Contrôleur de flux éco-conscient; Modèle d’énergie; QdS; ADREAM; Théorie de commande; Communication networks; Eco-conscious flow controller; Power model; Control theory;

136097
15607
17/12/2015

Gestion de la qualité de service des systèmes publier/souscrire déployés sur un réseau mobile ad-hoc

I.ABDENNADHER-LAHYANI

SARA

Doctorat : INSA de Toulouse, 17 Décembre 2015, 146p., Président: M.SIBILLA, Rapporteurs: P.ROOSE, H.YOUSSEF, Examinateurs: M.JMAIEL, N.VAN WAMBEKE, Directeurs de thèse: K.DRIRA, C.CHASSOT , N° 15607

Diffusable

Plus d'informations

Résumé

Les systèmes publier/souscrire déployés sur des réseaux mobiles ad-hoc présentent des défis importants en termes de qualité de service (QdS). L’objectif de cette thèse est d’assurer une gestion de la QdS des systèmes publier/souscrire sur MANET. Les contributions de cette thèse sont organisées autour de deux grands axes relatifs aux modules de monitoring et d’analyse de la QdS de ces systèmes dans un contexte ad-hoc. Ceci englobe les étapes de collecte des paramètres de QdS au cours du fonctionnement du système, et de détection des dégradations pouvant l’affecter. Le module d’analyse proposé offre à l’utilisateur une variété de choix entre une analyse réactive, proactive et hybride. Notre module permet aussi une localisation des pannes une fois détectées ou prédites. Des expérimentations menées à l’aide du simulateur Jist/Swans ont montré l’efficacité des modules développés. De plus, une mesure des paramètres de performance du système avant et après introduction des modules développés a montré leur efficacité. Finalement, une étude de la complexité spatiale et temporelle du module analytique développé a été réalisée.

Abstract

Publish/subscribe systems when deployed on mobile ad hoc network present significant challenges in terms of quality of service (QoS). The goal of this thesis is to ensure QoS management of publish/subscribe systems on MANET. The contribution of this thesis is to introduce monitoring and analysis modules. This requires collecting QoS parameters during system functionning in order to detect and prevent degradations. The proposed analysis module enables the user to choose among a variety of analyses including reactive, proactive and hybrid analysis. Our approach allows also locating failures once detected or predicted. The efficiency and accuracy of the proposed scheme were validated by performing simulation under the Jist/Swans simulator. Besides, performance parameters were studied before and after the introduction of the developed modules.

Mots-Clés / Keywords
Publier/souscrire; MANET; Qualité de Service; Monitoring; Analyse; Publish/subscribe; Quality of service; Analysis;

135992
15694
17/12/2015

Sélection et composition flexible basée services abstraits pour une meilleure adaptation aux intentions des utilisateurs

E.FKI

SARA

Doctorat : Université de Toulouse I - Capitole, 17 Décembre 2015, 112p., Président: , Rapporteurs: I.AMMOUS, D.BEN SLIMANE, Examinateurs: T.VILLEMUR, K.DRIRA, P.ROOSE, Directeurs de thèse: S.TAZI, M.JMAIEL , N° 15694

Lien : https://tel.archives-ouvertes.fr/tel-01314946

Diffusable

Plus d'informations

Abstract

The design approach of service oriented architectures (SOA) is based on standards which gives the possibility of creating an integrated IT infrastructure capable of rapidly responding to new user needs. Actually, it is not always easy to find services that meet user requests. Therefore, the service composition satisfying the user intention is a growing need. The composition of services implies the ability to select, coordinate, interact, and to interoperate existing services. The composition is considered as a complex task. This complexity is mainly due to the large number of available services and their heterogeneity as they are created by different organizations. This complexity is increased when services must be dynamically and automatically composed to meet requirements which are not satisfied by existing services. In fact, an approach for service composition must offer the potential to achieve flexible and adaptable applications, by selecting and combining services based of the request and the context of the user. In this perspective, different approaches have been developed for services composition. However, most of the existing composition approaches tend to be static and not flexible in the sense that they do not have the ability to adapt to user requirements. In this thesis, we propose a composition approach in which the generation of the composition schema is performed at runtime through the use of abstract services provided at design time. The use of abstract services allows flexibility and adaptability without having to build a service composition from scratch at run time. The composition process that we propose consists mainly of four steps. The first step takes a structure of user requirements materialized by a graph of intentions and enriches this graph to explicit the implicit relationships. The enriched graph is used to generate an initial composition scheme by building the control flow and selecting the appropriate abstract services. The selection of these services is based on the semantic matching and the degree of semantic affinity between abstract services. The third step is to generate the final composition schema with a refinement mechanism of abstract services using semantic matching techniques and taking into account user context and constraints. Finally, the execution plan is generated driven by non-functional constraints provided in the intentions specification.

Résumé

La méthode de conception des architectures orientées services (SOA) est basée sur des standards et permet de créer une infrastructure informatique intégrée capable de répondre rapidement aux nouveaux besoins d’un utilisateur. Réellement, il n’est pas toujours facile de trouver des services correspondant aux requêtes des utilisateurs. Par conséquent, la composition des services satisfaisant la requête est un besoin grandissant de nos jours. La composition de services implique la capacité de sélectionner, de coordonner, d’interagir, et de faire interopérer des services existants. Elle constitue une tâche complexe. Cette complexité est due principalement au grand nombre de services disponibles et à leur hétérogénéité puisqu’ils sont créés par des organisations différentes. Cette complexité est renforcée quand il s’agit d’intégrer dynamiquement des services à la demande, et les composer automatiquement pour répondre à des exigences qui ne sont pas réalisées par les services existants. En fait, une approche pour la composition de services doit offrir le potentiel de réaliser des applications flexibles et adaptables, en sélectionnant et en combinant les services de manière appropriée sur la base de la requête et du contexte de l’utilisateur. Dans cette perspective, différentes approches ont été développées pour la composition de services. Cependant, la plupart des processus de composition ont tendance à être statique et non flexible dans le sens où ils n’ont pas la capacité de s’adapter aux besoins des utilisateurs. Dans cette thèse, nous proposons une approche de composition dans laquelle la génération du schéma de composition est effectuée en partie au moment de l’exécution en ayant recours aux services abstraits fournis au moment de la conception. L’utilisation des services abstraits permet une certaine flexibilité et adaptabilité sans avoir besoin de construire une composition de services à partir de zéro au moment de l’exécution. Le processus de composition que nous proposons se compose principalement de quatre étapes. La première étape prend une structuration des besoins de l’utilisateur matérialisée par un graphe d’intentions et l’enrichit pour expliciter les relations implicites. Le résultat de cette étape permet de générer un schéma de composition initial en construisant le flux de contrôle déduit du graphe des intentions enrichi, puis en sélectionnant les services abstraits adéquats. Le choix de ces services est basé sur le matching sémantique et le degré d’affinité sémantique entre les services abstraits. La troisième étape consiste à générer le schéma de composition final à l’aide d’un mécanisme de raffinement des services abstraits en utilisant des techniques de matching sémantique et en tenant compte du contexte de l’utilisateur. Enfin, le plan d’exécution est généré en tenant compte des contraintes non-fonctionnelles fournies dans la spécification des intentions.

Mots-Clés / Keywords
Composition de services; Intentions; Services abstraits; Matching sémantique; Service composition; Abstract services; Semantic matching;

136452
15417
25/09/2015

Dynamic control of stochastic and fluid resource-sharing systems

M.LARRANAGA

SARA

Doctorat : INP de Toulouse, 25 Septembre 2015, 160p., Président: A.L.BEYLOT, Rapporteurs: A.JEAN-MARIE, G.KOOLE, Examinateurs: K.GLAZEBROOK, R.NUNEZ-QUEIJA, Directeurs de thèse: U.AYESTA, I.M.VERLOOP, X.ALBIZURI , N° 15417

Lien : https://tel.archives-ouvertes.fr/tel-01241496

Diffusable

Plus d'informations

Résumé

Nous étudions le contrôle dynamique des systèmes de partage de ressources qui se posent dans diverses domaines : réseaux de gestion des stocks, services de santé, réseaux de communi! cation, etc. Nous visons à allouer efficacement les ressources! disponibles entre des projets concurrents, selon certains critères de performance. Ce type de problème est de nature stochastique et peut être très complexe à résoudre. Nous nous concentrons donc sur le développement de méthodes heuristiques performantes. Dans la partie I, nous nous plaçons dans le cadre des Restless Bandit Problems, qui est une classe générale de problèmes d'optimisation dynamique stochastique. Relaxer la contrainte de trajectoire dans le problème d'optimisation permet de définir une politique d'index comme heuristique pour le modèle contraint d'origine, aussi appelée politique d'index de Whittle. Nous dérivons une expression analytique pour l'index de Whittle en fonction des probabilités stationnaires de l'état dans le cas où les bandits (ou projets) suivent un processus de naissance et de mort. D'une part, cette expression nécessite la vérification de plusieurs conditions techniques, d'autre part elle ne peut être calculée explicitement que dans certai! ns cas spécifiques. Nous prouvons ensuite, que dans le cas particulier d'une file d'attente multi-classe avec abandon, la politique d'index de Whittle est asymptotiquement optimale aussi bien pour les régimes à faible trafic comme pour ceux à fort trafic. Dans la partie II, nous dérivons des heuristiques issues de l'approximation des systèmes stochastiques de partage de ressources par des modèles fluides déterministes. Nous formulons dans un premier temps une version fluide du problème d'optimisation relaxé que nous avons introduit dans la partie I, et développons une politique d'index fluide. L'index fluide peut toujours être calculé explicitement et surmonte donc les questions techniques qui se posent lors du calcul de l'index de Whittle. Nous appliquons les politiques d'index de Whittle et de l'index fluide à plusieurs cas : les fermes de serveurs éco-conscients, l'ordonnancement opportuniste dans les systèmes sans fil, et la gestion de stockage de produits périssables! . Nous montrons numériquement que ces politiques d'index sont ! presque o! ptimales.. Dans un second temps, nous étudions l'ordonnancement optimal de la version fluide d'une file d'attente multi-classe avec abandon. Nous obtenons le contrôle optimal du modèle fluide en présence de deux classes de clients en concurrence pour une même ressource. En nous appuyant sur ces derniers résultats, nous proposons une heuristique pour le cas général de plusieurs classes. Cette heuristique montre une performance quasi-optimale lorsqu'elle est appliquée au modèle stochastique original pour des charges de travail élevées. Enfin, dans la partie III, nous étudions les phénomènes d'abandon dans le contexte d'un problème de distribution de contenu. Nous caractérisons une politique optimale de regroupement afin que des demandes issues d'utilisateurs impatients puissent être servies efficacement en mode diffusion.

Abstract

In this thesis we study the dynamic control of resource-sharing systems that arise in various domains: e.g. inventory management, healthcare and communication networks. We aim at efficiently allocating the available resources among competing projects according to a certain performance criteria. These type of problems have a stochastic nature and may be very complex to solve. We therefore focus on developing well-performing heuristics. In Part I, we consider the framework of Restless Bandit Problems, which is a general class of dynamic stochastic optimization problems. Relaxing the sample-path constraint in the optimization problem enables to define an index-based heuristic for the original constrained model, the socalled Whittle index policy. We derive a closed-form expression for the Whittle index as a function of the steady-state probabilities for the case in which bandits (projects) evolve in a birth-and-death fashion. This expression requires several technical conditions to be verified, and in addition, it can only be computed explicitly in specific cases. In the particular case of a multi-class abandonment queue, we further prove that the Whittle index policy is asymptotically optimal in the light-traffic and heavy-traffic regimes. In Part II, we derive heuristics by approximating the stochastic resource-sharing systems with deterministic fluid models. We first formulate a fluid version of the relaxed optimization problem introduced in Part I, and we develop a fluid index policy. The fluid index can always be computed explicitly and hence overcomes the technical issues that arise when calculating the Whittle index. We apply the Whittle index and the fluid index policies to several systems: e.g. power-aware server-farms, opportunistic scheduling in wireless systems, and make-to-stock problems with perishable items. We show numerically that both index policies are nearly optimal. Secondly, we study the optimal scheduling control for the fluid version of a multi-class abandonment queue. We derive the fluid optimal control when there are two classes of customers competing for a single resource. Based on the insights provided by this result we build a heuristic for the general multi-class setting. This heuristic shows near-optimal performance when applied to the original stochastic model for high workloads. In Part III, we further investigate the abandonment phenomena in the context of a content delivery problem. We characterize an optimal grouping policy so that requests, which are impatient, are efficiently transmitted in a multi-cast mode.

Mots-Clés / Keywords
Abandonments; Fluid models; Markov decision processes; Restless bandit problems; Scheduling;

135503
15383
21/09/2015

Interpolation approximations for steady-state performance measures

A.IZAGIRRE

SARA

Doctorat : INSA de Toulouse, 21 Septembre 2015, 148p., Président: C.CHASSOT, Rapporteurs: K.AVRACHENKOV, R.NUNEZ-QUEIJA, Examinateurs: D.FIEMS, R.VAN DER MEI, I.M.VERLOOP, Directeurs de thèse: U.AYESTA, F.X.ALBIZURI IRIGOYEN , N° 15383

Lien : https://tel.archives-ouvertes.fr/tel-01215869

Diffusable

Plus d'informations

Résumé

L'analyse de la performance à l'état stationnaire dans de nombreux systèmes de files d'attente est complexe et les résultats sous forme explicite ne sont disponibles que dans des cas particuliers. Nous avons donc développé des approximations pour des critères de performance importants à l'état stationnaire tels que la longueur de la file d'attente, le temps d'attente et le temps de traitement total. Nous analysons d'abord la performance dans des cas à faible et fort trafic. Nous montrons ensuite comment développer une approximation basée sur une interpolation qui est valable pour n'importe quelle condition de trafic. Un avantage de l'approche proposée est qu'elle n'est pas dépendante d’un modèle particulier et donc elle peut être appliquée à d'autres modèles de files d'attente complexes. Nous appliquons cette technique pour trois modèles largement utilisés dans l'évaluation des performances des réseaux stochastiques : le modèle du supermarché, la file d'attente Discriminatory-Processor-Sharing (DPS) et la file d'attente Relative Priority (RP). Le modèle du supermarché est une file d'attente à plusieurs serveurs où lorsqu’un client arrive, deux serveurs sont choisis au hasard dans un ensemble de serveurs. La politique Join-the- Shortest-Queue (JSQ) est ensuite utilisée parmi les deux serveurs sélectionnés. DPS et RP sont deux files d'attente à plusieurs classes et à serveur unique mettant en oeuvre des priorités relatives entre les clients des différentes classes. La discipline DPS sert tous les clients simultanément, tandis que RP sert un seul client à la fois de manière non-préemptive. Nous montrons que dans certains cas, l'interpolation est exacte. Nous utilisons ensuite cette approximation pour déduire comment la performance dépend des paramètres des modèles, et nous effectuons des expériences numériques illustrant la précision de l'interpolation dans un grand nombre de cas de figure.

Abstract

The analysis of the steady-state performance in many queuing systems is complex and closed-form results are available only in particular cases. We therefore set out to develop approximations for important performance measures in steady-state such as the queue length vector, waiting time and sojourn time. We first analyse the performance in a light-traffic and heavy-traffic regime. We then show how to develop an interpolation-based approximation that is valid for any load in the system. An advantage of the approach taken is that it is not model dependent and hence could potentially be applied to other complex queuing models. We apply this technique to three widely used models in the performance evaluation of stochastic networks: The supermarket model, the Discriminatory-Processor- Sharing (DPS) queue and the Relative Priority (RP) queue. The supermarket model is a multi-server queue where upon arrival of a customer two servers are selected at random from the available pool of servers. The Join-the-Shortest-Queue policy is then used in isolation with these two servers. DPS and RP are both single-server multi-class queues that implement relative priorities among customers of the various classes. The DPS discipline serves all customers simultaneously while RP serves one customer at a time in a nonpreemptive way. We show that in some instances the interpolation approximation is exact. We then use the approximation to draw structural insights onto the performance of the system, and we carry out numerical experiments that illustrate that the interpolation approximation is accurate over a wide range of parameters.

Mots-Clés / Keywords
Queuing theory; Heavy traffic; Light traffic; Interpolation approximation; Théorie de files d'attente; Trafic fort; Trafic léger; Interpolation;

135392
15348
21/09/2015

Interpolation approximations for steady-state performance measures

A.IZAGIRRE

SARA

Doctorat : INSA de Toulouse, 21 Septembre 2015, 135p., Président: C.CHASSOT, Rapporteurs: K.AVRACHENKOV, R.NUNEZ-QUEIJA, Examinateurs: D.FIEMS, R.VAN DER MEI, Directeurs de thèse: U.AYESTA, F.B.ALBIZIRI, I.M.VERSLOOP , N° 15348

Lien : https://tel.archives-ouvertes.fr/tel-01206190

Diffusable

Plus d'informations

Abstract

The analysis of the steady-state performance in many queuing systems is complex and closed-form results are available only in particular cases. We therefore set out to develop approximations for important performance measures in steady-state such as the queue length vector, waiting time and sojourn time. We first analyse the performance in a light-traffic and heavy-traffic regime. We then show how to develop an interpolation-based approximation that is valid for any load in the system. An advantage of the approach taken is that it is not model dependent and hence could potentially be applied to other complex queuing models. We apply this technique to three widely used models in the performance evaluation of stochastic networks: The supermarket model, the Discriminatory-Processor-Sharing (DPS) queue and the Relative Priority (RP) queue. The supermarket model is a multi-server queue where upon arrival of a customer two servers are selected at random from the available pool of servers. The Join-the-Shortest-Queue policy is then used in isolation with these two servers. DPS and RP are both single-server multi-class queues that implement relative priorities among customers of the various classes. The DPS discipline serves all customers simultaneously while RP serves one customer at a time in a non-preemptive way. We show that in some instances the interpolation approximation is exact. We then use the approximation to draw structural insights onto the performance of the system, and we carry out numerical experiments that illustrate that the interpolation approximation is accurate over a wide range of parameters

Résumé

L'analyse de la performance à l'état stationnaire dans de nombreux systèmes de files d'attente est complexe et les résultats sous forme explicite ne sont disponibles que dans des cas particuliers. Nous avons donc développé des approximations pour des critères de performance importants à l'état stationnaire tels que la longueur de la file d'attente, le temps d'attente et le temps de traitement total. Nous analysons d'abord la performance dans des cas à faible et fort trafic. Nous montrons ensuite comment développer une approximation basée sur une interpolation qui est valable pour n'importe quelle condition de trafic. Un avantage de l'approche proposée est qu'elle n'est pas dépendante d’un modèle particulier et donc elle peut être appliquée à d'autres modèles de files d'attente complexes. Nous appliquons cette technique pour trois modèles largement utilisés dans l'évaluation des performances des réseaux stochastiques : le modèle du supermarché, la file d'attente Discriminatory-Processor-Sharing (DPS) et la file d'attente Relative Priority (RP). Le modèle du supermarché est une file d'attente à plusieurs serveurs où lorsqu’un client arrive, deux serveurs sont choisis au hasard dans un ensemble de serveurs. La politique Join-the-Shortest-Queue (JSQ) est ensuite utilisée parmi les deux serveurs sélectionnés. DPS et RP sont deux files d'attente à plusieurs classes et à serveur unique mettant en œuvre des priorités relatives entre les clients des différentes classes. La discipline DPS sert tous les clients simultanément, tandis que RP sert un seul client à la fois de manière non-préemptive. Nous montrons que dans certains cas, l'interpolation est exacte. Nous utilisons ensuite cette approximation pour déduire comment la performance dépend des paramètres des modèles, et nous effectuons des expériences numériques illustrant la précision de l'interpolation dans un grand nombre de cas de figure

135326
Les informations recueillies font l’objet d’un traitement informatique destiné à des statistiques d'utilisation du formulaire de recherche dans la base de données des publications scientifiques. Les destinataires des données sont : le service de documentation du LAAS.Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à
Pour recevoir une copie des documents, contacter doc@laas.fr en mentionnant le n° de rapport LAAS et votre adresse postale. Signalez tout problème de dysfonctionnement à sysadmin@laas.fr. http://www.laas.fr/pulman/pulman-isens/web/app.php/