WorldCat Identities

Da Costa, Georges

Overview
Works: 16 works in 37 publications in 2 languages and 467 library holdings
Genres: Conference papers and proceedings 
Roles: Editor, Thesis advisor, Opponent, Other, htt, Author
Publication Timeline
.
Most widely held works by Georges Da Costa
Energy Efficiency in Large Scale Distributed Systems : COST IC0804 European Conference, EE-LSDS 2013, Vienna, Austria, April 22-24, 2013, Revised Selected Papers by Jean-Marc Pierson( )

13 editions published in 2013 in English and held by 442 WorldCat member libraries worldwide

This book constitutes revised selected papers from the Conference on Energy Efficiency in Large Scale Distributed Systems, EE-LSDS, held in Vienna, Austria, in April 2013. It served as the final event of the COST Action IC0804 which started in May 2009. The 15 full papers presented in this volume were carefully reviewed and selected from 31 contributions. In addition, 7 short papers and 3 demo papers are included in this book. The papers are organized in sections named: modeling and monitoring of power consumption; distributed, mobile and cloud computing; HPC computing; wired and wireless networking; and standardization issues
Anti load-balancing for energy-aware distributed scheduling of virtual machines by Cheikhou Thiam( Book )

3 editions published between 2014 and 2015 in English and held by 3 WorldCat member libraries worldwide

The multiplication of Cloud computing has resulted in the establishment of largescale data centers around the world containing thousands of compute nodes. However, Cloud consume huge amounts of energy. Energy consumption of data centers worldwide is estimated at more than 1.5% of the global electricity use and is expected to grow further. A problem usually studied in distributed systems is to evenly distribute the load. But when the goal is to reduce energy consumption, this type of algorithms can lead to have machines largely under-loaded and therefore consuming energy unnecessarily. This thesis presents novel techniques, algorithms, and software for distributed dynamic consolidation of Virtual Machines (VMs) in Cloud. The main objective of this thesis is to provide energy-aware scheduling strategies in cloud computing for energy saving. To achieve this goal, we use centralized and decentralized approaches. Contributions in this method are presented these two axes. The objective of our approach is to reduce data center's total energy consumed by controlling cloud applications' overall energy consumption while ensuring cloud applications' service level agreement. Energy consumption is reduced by dynamically deactivating and reactivating physical nodes to meet the current resource demand. The key contributions are: - First, we present an energy aware clouds scheduling using anti-load balancing algorithm : concentrate the load on a minimum number of severs. The goal is to turn off the machines released and therefore minimize the energy consumption of the system. - The second axis proposed an algorithm which works by associating a credit value with each node. The credit of a node depends on its affinity to its jobs, its current workload and its communication behavior. Energy savings are achieved by continuous consolidation of VMs according to current utilization of resources, virtual network topologies established between VMs, and thermal state of computing nodes. The experiment results, obtained with a simulator which extends CloudSim (EnerSim), show that the cloud application energy consumption and energy efficiency are being improved. - The third axis is dedicated to the consideration of a decentralized dynamic scheduling approach entitled Cooperative scheduling Anti-load balancing Algorithm for cloud. It is a decentralized approach that allows cooperation between different sites. To validate this algorithm, we have extended the simulator MaGateSim. With an extensive experimental evaluation with a real workload dataset, we got the conclusion that both the approach using centralized and decentralized algorithms can reduce energy consumed by data centers
Vers une meilleure utilisation des énergies renouvelables : application à des bâtiments scientifiques by Inès de Courchelle( Book )

2 editions published in 2017 in French and held by 2 WorldCat member libraries worldwide

Les travaux de cette thèse portent sur l'optimisation des flux énergétiques et informatiques dans un réseau intelligent ayant pour but d'alimenter un centre de calcul via des énergies renouvelables. Dans cette thèse sont traités les problèmes liés à la mise en commun des informations de types énergétique et informatique dans une contrainte de réactivité forte à travers la création d'une architecture pour un réseau intelligent. La modélisation d'un tel réseau doit permettre la prise de décision de manière dynamique et autonome. L'objectif de cette modélisation, via un réseau intelligent, est l'optimisation des ressources renouvelables afin de diminuer l'empreinte écologique
Allocation et réallocation de services pour les économies d'énergie dans les clusters et les clouds by Damien Borgetto( Book )

2 editions published in 2013 in French and held by 2 WorldCat member libraries worldwide

L'informatique dans les nuages (cloud computing) est devenu durant les dernières années un paradigme dominant dans le paysage informatique. Son principe est de fournir des services décentralisés à la demande. La demande croissante pour ce type de service amène les fournisseurs de clouds à augmenter la taille de leurs infrastructures à tel point que les consommations d'énergie ainsi que les coûts associés deviennent très importants. Chaque fournisseur de service cloud doit répondre à des demandes différentes. C'est pourquoi au cours de cette thèse, nous nous sommes intéressés à la gestion des ressources efficace en énergie dans les clouds. Nous avons tout d'abord modélisé et étudié le problème de l'allocation de ressources initiale en fonction des services, en calculant des solutions approchées via des heuristiques, puis en les comparant à la solution optimale. Nous avons ensuite étendu notre modèle de ressources pour nous permettre d'avoir une solution plus globale, en y intégrant de l'hétérogénéité entre les machines et des infrastructures de refroidissement. Nous avons enfin validé notre modèle par simulation. Les services doivent faire face à différentes phases de charge, ainsi qu'à des pics d'utilisation. C'est pourquoi, nous avons étendu le modèle d'allocation de ressources pour y intégrer la dynamicité des requêtes et de l'utilisation des ressources. Nous avons mis en œuvre une infrastructure de cloud simulée, visant à contrôler l'exécution des différents services ainsi que le placement de ceux-ci. Ainsi notre approche permet de réduire la consommation d'énergie globale de l'infrastructure, ainsi que de limiter autant que possible les dégradations de performance
Self-Adaptive Bandwidth Control for Balanced QoS and Energy Aware Optimization in Wireless Sensor Network by Zongyi Liu( Book )

2 editions published in 2017 in English and held by 2 WorldCat member libraries worldwide

Dans le domaine des réseaux de capteurs multimédias sans fil (WMSN), le flux fortement saturé augmente la probabilité de collision et de congestion dans la transmission de données, ce qui dégrade considérablement la performance de la qualité de service (QoS). La technique de déploiement multicanaux est souvent appliquée à la transmission en parallèle pour garantir la QoS. Cependant, comment faire le compromis entre l'exigence QoS et l'efficacité énergétique est un défi pour WMSN énergie-limité. L'analyse théorique de la couche MAC et de la structure de la couche PHY basée sur la norme IEEE 802.15.4, vise à étudier le modèle analytique cross-layer afin de mieux comprendre la relation entre les paramètres du réseau de capteurs et la performance, ouvrant ainsi la voie à de nouvelles améliorations. Recherche d'optimisation multi-canaux. Trouver un indicateur de performance efficace et concevoir une méthode de collecte ou d'estimation de performance efficace basée sur les métriques correspondantes, qui pourraient être utilisées comme entrée de paramètre du mécanisme d'affectation multicanaux. Le système de contrôle dynamique complet est conçu pour une tâche d'attribution multicanal basée sur des techniques d'intelligence de calcul léger et efficace. Nous présentons un mécanisme d'attribution multicouches à bande passante dynamique à fuzzy (MCDB_FLS). La bande passante proactive disponible dans la couche croisée est estimée comme paramètre pour le contrôle d'admission de déploiement multicanal. Une approche axée sur l'apprentissage par renforcement est proposée pour une prise de décision judicieuse dans la mission d'allocation multicanaux. En outre, le modèle de seuil de bande passante basé sur la logique floue fournit une optimisation dynamique sur le contrôle d'admission du système. Les simulations montrent que le MCDB_FLS fonctionne mieux que la référence sur les mesures de QoS et l'efficacité énergétique, réalise le compromis entre l'efficacité énergétique et l'amélioration de la QoS. Enfin, nous introduisons l'intégration de l'approche incrémentielle d'apprentissage automatique dans le mécanisme d'affectation multicanaux avec la Deep Q Network (DQMC). En outre, l'initialisation du poids par action est implémentée sur la base d'un classificateur d'apprentissage supervisé multi-classes avec une approche par empilement. DQMC améliorer la capacité d'auto-adaptatif et de contrôle intelligent pour apprendre le modèle de l'environnement différent de multi-tâches WMSNs
Méthodologie de l'environnement des systèmes Pair à Pair by Georges Da Costa( Book )

2 editions published in 2005 in French and held by 2 WorldCat member libraries worldwide

Peer to Peer systems have recently taken an important position in the filesharing field. However it is difficult to verify their property on account of the large number of participants (several thousand). This Phd formalise the environ ment of these systems in order to help their study. The modelisation, emulation and simulation need to have such characteristics of the environ ment of the studied systems. This work primaly took care of the methodology of extraction of such models from traces. Then, we have implemented the generation of the different characteristics of the peer to peer systems environment in the Rig library. Using these results, we have verified the need of realism by simulation for the environment
Approche par la simulation pour la gestion de ressources by Millian Poquet( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

Les plateformes de calcul se multiplient, grandissent en taille et gagnent encomplexité.De nombreux défis restent à relever pour construire les prochaines générationsde plateformes, mais exploiter cesdites plateformes est également un défi en soi.Des contraintes comme la consommation énergétique, les mouvement de donnéesou la résilience risquent de devenir prépondérantes et de s'ajouter à lacomplexité actuelle de la gestion des plateformes.Les méthodes de gestion de ressources peuvent également évoluer avec laconvergence des différents types de plateformes distribuées.Les gestionnaires de ressources sont des systèmes critiques au cœur desplateformes qui permettent aux utilisateurs d'exploiter les ressources.Les faire évoluer est nécessaire pour exploiter au mieux lesressources en prenant en compte ces nouvelles contraintes.Ce processus d'évolution est risqué et nécessite de nombreuses itérationsqu'il semble peu raisonnable de réaliser in vivo tant les coûts impliquéssont importants.La simulation, beaucoup moins coûteuse, est généralement préférée pourfaire ce type d'études mais pose des questions quant au réalisme des résultatsainsi obtenus.La première contribution de cette thèse est de proposer une méthode desimulation modulaire pour étudier les gestionnaires de ressources et leurévolution -- ainsi que le simulateur résultant nommé Batsim.L'idée principale est de séparer fortement la simulation et les algorithmes deprise de décision.Cela permet une séparation des préoccupations puisque les algorithmes,quels qu'ils soient, peuvent bénéficier d'une simulation validée proposantdifférents niveaux de réalisme.Cette méthode simplifie la mise en production de nouvelles politiquespuisque des codes issus à la fois de gestionnaires de ressources de productionet de prototypes académiques peuvent être étudiés dans le même contexte.La méthode de simulation proposée est illustrée dans la seconde partie de cettethèse, qui s'intéresse à des problèmes de gestion de ressourcesnon clairvoyants mêlant optimisation des performances et de laconsommation énergétique.Différents algorithmes sont d'abord proposés et étudiés afin de respecter unbudget d'énergie pendant une période de temps donnée.Nous étudions ensuite plus généralement les différents compromis réalisablesentre performances et énergie grâce à différentes politiques d'extinction denœuds de calcul
Ordonnancement sous contraintes de qualité de service dans les clouds by Tom Guérout( Book )

2 editions published in 2014 in French and held by 2 WorldCat member libraries worldwide

In recent years, new issues have arisen in environmental considerations, increasingly pointed out in our society. In the field of Information Technology, data centers currently consume about 1.5% of world electricity. This increasing is due to changes in many areas, especially in Cloud Computing. Besides this environmental aspect, the management of energy consumption has become an important field of Quality of Service (QoS), in the responsibility of Cloud providers. These providers propose a QoS contract called SLA (Service Level Agreement), which specify the level of QoS given to users. The level of QoS offered directly influences the quality of the users' utilization, but also the overall energy consumption and performance of computing resources, which strongly affect profits of the Cloud providers. Cloud computing is intrinsically linked to the virtualization of computing resources. A model of hardware and software architecture is proposed in order to define the characteristics of the environment considered. Then, a detailed modeling of QoS parameters in terms of performance, dependability, security and cost is proposed. Therefore, QoS metrics, associated to these parameters are defined in order to extend the possibilities for evaluating the SLA. These models represent the first contribution of this thesis. Then, it is necessary to illustrate how the use and interpretation of several QoS metrics open the possibility of a more complex and precise analysis of algorithms' insight. This multi-criteria approach, that provides useful informations about the system's status can be analyzed to manage the QoS parameters' level. Thus, four antagonists metrics, including energy consumption, are selected and used together in several scheduling algorithms which allow to show their relevance, the enrichment given to these algorithms, and how a Cloud provider can take advantage of the results of this kind of multi-objective optimization. The second contribution presents a genetic algorithm (GA) and two greedy algorithms. The analysis of the genetic algorithm behavior allows to show different interests of a multi-criteria optimization applied to QoS metrics, usually ignored in studies dedicated to Cloud Computing. The third contribution of this thesis proposes a study of the impact of the use of QoS metrics in virtual machines scheduling. The simulator CloudSim has been used and expanded to improve its energy-aware tools. The DVFS (Dynamic Voltage & Frequency Scaling), providing a highly accurate dynamic management of CPU frequencies, the virtual machines reconfiguration, and the dynamic management of events have been included. The simulations involve all of these energy tools and placement algorithms, and evaluate each selected QoS metrics. These simulations allow to see the evolution in time of these metrics, depending on the algorithms used and the behavior of the GA in different optimizations configurations. This allows to analyze from different angles the behavior of greedy algorithms, the impact of optimizations GA, and the influence of these metrics one against the others
Datacenter management for on-site intermittent and uncertain renewable energy sources by Léo Grange( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Les technologies de l'information et de la communication sont devenues, au cours des dernières années, un pôle majeur de consommation énergétique avec les conséquences environnementales associées. Dans le même temps, l'émergence du Cloud computing et des grandes plateformes en ligne a causé une augmentation en taille et en nombre des centres de données. Pour réduire leur impact écologique, alimenter ces centres avec des sources d'énergies renouvelables (EnR) apparaît comme une piste de solution. Cependant, certaines EnR telles que les énergies solaires et éoliennes sont liées aux conditions météorologiques, et sont par conséquent intermittentes et incertaines. L'utilisation de batteries ou d'autres dispositifs de stockage est souvent envisagée pour compenser ces variabilités de production. De par leur coût important, économique comme écologique, ainsi que les pertes énergétiques engendrées, l'utilisation de ces dispositifs sans intégration supplémentaire est insuffisante. La consommation électrique d'un centre de données dépend principalement de l'utilisation des ressources de calcul et de communication, qui est déterminée par la charge de travail et les algorithmes d'ordonnancement utilisés. Pour utiliser les EnR efficacement tout en préservant la qualité de service du centre, une gestion coordonnée des ressources informatiques, des sources électriques et du stockage est nécessaire. Il existe une grande diversité de centres de données, ayant différents types de matériel, de charge de travail et d'utilisation. De la même manière, suivant les EnR, les technologies de stockage et les objectifs en termes économiques ou environnementaux, chaque infrastructure électrique est modélisée et gérée différemment des autres. Des travaux existants proposent des méthodes de gestion d'EnR pour des couples bien spécifiques de modèles électriques et informatiques. Cependant, les multiples combinaisons de ces deux parties rendent difficile l'extrapolation de ces approches et de leurs résultats à des infrastructures différentes. Cette thèse explore de nouvelles méthodes pour résoudre ce problème de coordination. Une première contribution reprend un problème d'ordonnancement de tâches en introduisant une abstraction des sources électriques. Un algorithme d'ordonnancement est proposé, prenant les préférences des sources en compte, tout en étant conçu pour être indépendant de leur nature et des objectifs de l'infrastructure électrique. Une seconde contribution étudie le problème de planification de l'énergie d'une manière totalement agnostique des infrastructures considérées. Les ressources informatiques et la gestion de la charge de travail sont encapsulées dans une boîte noire implémentant un ordonnancement sous contrainte de puissance. La même chose s'applique pour le système de gestion des EnR et du stockage, qui agit comme un algorithme d'optimisation d'engagement de sources pour répondre à une demande. Une optimisation coopérative et multiobjectif, basée sur un algorithme évolutionnaire, utilise ces deux boîtes noires afin de trouver les meilleurs compromis entre les objectifs électriques et informatiques. Enfin, une troisième contribution vise les incertitudes de production des EnR pour une infrastructure plus spécifique. En utilisant une formulation en processus de décision markovien (MDP), la structure du problème de décision sous-jacent est étudiée. Pour plusieurs variantes du problème, des méthodes sont proposées afin de trouver les politiques optimales ou des approximations de celles-ci avec une complexité raisonnable
Modeling the power consumption of computing systems and applications through machine learning techniques by Leandro Fontoura Cupertino( Book )

2 editions published in 2015 in English and held by 2 WorldCat member libraries worldwide

The number of computing systems is continuously increasing during the last years. The popularity of data centers turned them into one of the most power demanding facilities. The use of data centers is divided into high performance computing (HPC) and Internet services, or Clouds. Computing speed is crucial in HPC environments, while on Cloud systems it may vary according to their service-level agreements. Some data centers even propose hybrid environments, all of them are energy hungry. The present work is a study on power models for computing systems. These models allow a better understanding of the energy consumption of computers, and can be used as a first step towards better monitoring and management policies of such systems either to enhance their energy savings, or to account the energy to charge end-users. Energy management and control policies are subject to many limitations. Most energy-aware scheduling algorithms use restricted power models which have a number of open problems. Previous works in power modeling of computing systems proposed the use of system information to monitor the power consumption of applications. However, these models are either too specific for a given kind of application, or they lack of accuracy. This report presents techniques to enhance the accuracy of power models by tackling the issues since the measurements acquisition until the definition of a generic workload to enable the creation of a generic model, i.e. a model that can be used for heterogeneous workloads. To achieve such models, the use of machine learning techniques is proposed. Machine learning models are architecture adaptive and are used as the core of this research. More specifically, this work evaluates the use of artificial neural networks (ANN) and linear regression (LR) as machine learning techniques to perform non-linear statistical modeling.Such models are created through a data-driven approach, enabling adaptation of their parameters based on the information collected while running synthetic workloads. The use of machine learning techniques intends to achieve high accuracy application- and system-level estimators. The proposed methodology is architecture independent and can be easily reproduced in new environments.The results show that the use of artificial neural networks enables the creation of high accurate estimators. However, it cannot be applied at the process-level due to modeling constraints. For such case, predefined models can be calibrated to achieve fair results.% The use of process-level models enables the estimation of virtual machines' power consumption that can be used for Cloud provisioning
Vers la modélisation de clusters de centres de données vertes by Dimitra Politaki( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Data center clusters energy consumption is rapidly increasing making them the fastest-growing consumers of electricity worldwide. Renewable electricity sources and especially solar energy as a clean and abundant energy can be used, in many locations, to cover their electricity needs and make them "green" namely fed by photovoltaics. This potential can be explored by predicting solar irradiance and assessing the capacity provision for data center clusters. In this thesis we develop stochastic models for solar energy; one at the surface of the Earth and a second one which models the photovoltaic output current. We then compare them to the state of the art on-off model and validate them against real data. We conclude that the solar irradiance model can better capture the multiscales correlations and is suitable for small scale cases. We then propose a new job life-cycle of a complex and real cluster system and a model for data center clusters that supports batch job submissions and cons iders both impatient and persistent customer behavior. To understand the essential computer cluster characteristics, we analyze in detail two different workload type traces; the first one is the published complex Google trace and the second, simpler one, which serves scientific purposes, is from the Nef cluster located at the research center Inria Sophia Antipolis. We then implement the marmoteCore-Q, a tool for the simulation of a family of queueing models based on our multi-server model for data center clusters with abandonments and resubmissions
Simulation avancée pour la gestion de ressources des superordinateurs by Adrien Faure( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

Les superordinateurs sont des systèmes mutualisant la puissance de milliers de coeurs de calculs dédiés à la résolution des problèmes compliqués de notre société.Le gestionnaire de ressources est un système distribué et complexe chargé de la gestion de ses ressources de calculs.Son rôle est multiple: Gérer la plateforme physique et traiter les requêtes d'accès des utilisateurs au superordinateur.La pierre angulaire du gestionnaire de ressources est son algorithme d'ordonnancement des requêtes des utilisateurs.L'ordonnancement est un problème difficile; pour gérer efficacement un superordinateur le gestionnaire de ressources doit disposer d'heuristiques d'ordonnancement efficaces permettant de prendre des décisions pertinentes sur des milliers de ressources de calculs.Évaluer et tester de nouvelles heuristiques est fondamental avant de pouvoir les utiliser dans un système en production.Toute panne induite par une nouvelle politique peut avoir des conséquences importantes sur la qualité de service du superordinateur.Il est ainsi nécessaire de disposer d'outils et méthodes dédiés à l'évaluation des algorithmes d'ordonnancement.La première partie de ce document présente un nouvel algorithme d'ordonnancement, ainsi que son évaluation par le biais de la simulation.L'algorithme en question repose sur la possibilité de rediriger les programmes des utilisateurs en cours d'exécution.L'évaluation est réalisée par le biais d'une large campagne de simulation, et montre que rediriger des programmes permet d'améliorer les performances de l'ordonnancement.L'objectif principal de la seconde partie de ce document est de proposer et développer de nouveaux outils et méthodes pour l'évaluation des gestionnaires de ressources.Cette seconde partie est elle même divisée en deux arcs: Nous proposons dans un premier temps d'étendre les techniques de simulations d'algorithmes d'ordonnancement avec des modèles dédiés aux programmes permettant ainsi la simulation d'interférences réseaux entre les différents programmes.Dans un second temps, nous proposons deux nouvelles approches pour créer des expériences sur un seul ordinateur, en se basant directement sur de vrais gestionnaires de ressources.L'objectif de ces travaux est d'étendre le paysage expérimental des outils et méthodologies nécessaires à l'évaluation de nouveaux algorithmes d'ordonnancement
Résolution des interférences pour la composition dynamique de services en informatique ambiante by Sana Fathallah( )

1 edition published in 2013 in French and held by 1 WorldCat member library worldwide

Comme dans de nombreux autres domaines, la construction des applications en Informatique Ambiantes (IAm) se fait par réutilisation d'entités logicielles disponibles. Pour des raisons de conductivités, de pannes, de charge de batterie mais aussi de nombreuses autres, la disponibilité de ces entités est imprévisible ce qui implique que l'auto-adaptation dynamique des applications est une nécessité. Cela passe par la spécification en parallèle des adaptations par des experts de divers domaines. Ce parallélisme de construction, peut amener des problèmes d'interférences lors de la composition dynamique de plusieurs adaptations. Dans cette thèse, par l'utilisation de graphes, nous contribuons à la définition d'un cadre formel pour la détection et la résolution de ces interférences. L'assemblage des entités logicielles repose sur des connecteurs d'assemblage qui sont utilisés dans la spécification des adaptations. Des règles de réécriture de graphe permettront de résoudre les interférences détectées, cette résolution étant guidée par la connaissance de connecteurs définis. De plus, pour pouvoir étendre dynamiquement et automatiquement notre mécanisme de gestion des interférences, nous proposons la modélisation comportementale de ces connecteurs. Ceci permet de ne pas reposer sur une connaissance à priori des connecteurs et autorise par la même d'étendre dynamiquement l'ensemble des connecteurs disponibles pour la spécification des adaptations
Ordonnancement des migrations à chaud de machines virtuelles by Vincent Kherbache( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

Migrer à chaud une machine virtuelle (VM) est une opération basique dans un centre de données. Tous les jours, des VM sont migrées pour répartir la charge, économiser de l'énergie ou préparer la maintenance de serveurs. Bien que les problèmes de placement des VM soient beaucoup étudiés, on observe que la gestion des migrations permettant de transiter vers ces nouveaux placements reste un domaine de second plan. Cette phase est cependant critique car chaque migration à un coût en terme de CPU, de bande passante et d'énergie. Des algorithmes de décision reposent alors sur des hypothèses irréalistes et calculent des ordonnancements conduisant à des migrations longues et incontrôlables qui réduisent les bénéfices attendus de la ré-organisation des VM.Dans cette thèse nous nous sommes fixé comme objectif d'améliorer la qualité des ordonnancements de migrations dans les centres de données. Pour cela, nous avons d'abord modélisé l'ordonnancement de migrations en considérant l'architecture réseau et l'activité mémoire des VM. Pour évaluer l'efficacité de notre modèle, nous avons ensuite implémenté un ordonnanceur de migrations au sein du gestionnaire de VM BtrPlace. Nous avons ensuite étendu notre ordonnanceur en développant des contraintes d'ordonnancement, des objectifs personnalisés, une heuristique de recherche ainsi qu'un modèle énergétique.Nous avons validé notre approche par l'étude pratique de scénarios d'ordonnancement réalisés en environnement réel. Nous avons ainsi pu analyser la précision de notre modèle de migration, valider la qualité des décisions prises par notre modèle d'ordonnancement et évaluer l'extensibilité ainsi que le passage à l'échelle de notre solution
Allocation et réallocation de services pour les économies d'énergie dans les clusters et les clouds by Damien Borgetto( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

L'informatique dans les nuages (cloud computing) est devenu durant les dernières années un paradigme dominant dans le paysage informatique. Son principe est de fournir des services décentralisés à la demande. La demande croissante pour ce type de service amène les fournisseurs de clouds à augmenter la taille de leurs infrastructures à tel point que les consommations d'énergie ainsi que les coûts associés deviennent très importants. Chaque fournisseur de service cloud doit répondre à des demandes différentes. C'est pourquoi au cours de cette thèse, nous nous sommes intéressés à la gestion des ressources efficace en énergie dans les clouds. Nous avons tout d'abord modélisé et étudié le problème de l'allocation de ressources initiale en fonction des services, en calculant des solutions approchées via des heuristiques, puis en les comparant à la solution optimale. Nous avons ensuite étendu notre modèle de ressources pour nous permettre d'avoir une solution plus globale, en y intégrant de l'hétérogénéité entre les machines et des infrastructures de refroidissement. Nous avons enfin validé notre modèle par simulation. Les services doivent faire face à différentes phases de charge, ainsi qu'à des pics d'utilisation. C'est pourquoi, nous avons étendu le modèle d'allocation de ressources pour y intégrer la dynamicité des requêtes et de l'utilisation des ressources. Nous avons mis en œuvre une infrastructure de cloud simulée, visant à contrôler l'exécution des différents services ainsi que le placement de ceux-ci. Ainsi notre approche permet de réduire la consommation d'énergie globale de l'infrastructure, ainsi que de limiter autant que possible les dégradations de performance
Resilient and energy-efficient scheduling algorithms at scale by Guillaume Aupy( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Dans cette thèse, j'ai considéré d'un point de vue théorique deux problèmes importants pour les futures plateformes dîtes Exascales : les restrictions liées à leur fiabilité ainsi que les contraintes énergétiques. En première partie de cette thèse, je me suis intéressé à l'étude de placements optimal de ces checkpoints dans un but de minimisation de temps total d'exécution. En particulier, j'ai considéré les checkpoints périodiques et coordonnés. J'ai considéré des prédicteurs de fautes capables de prévoir, de manière imparfaite, les fautes arrivant sur la plateforme. Dans ce contexte, j'ai conçu des algorithmes efficaces pour résoudre mes problèmes. Dans un deuxième temps, j'ai considéré des fautes silencieuses. Ces fautes ne peuvent être détectées qu'uniquement par un système de vérification.Dans le cas où une de ces fautes est détectée, l'utilisateur doit retourner au point de sauvegarde le plus récent qui n'a pas été affecté par cette faute, si un tel point existe ! Dans ce contexte, j'ai à nouveau proposé des algorithmes optimaux au premier ordre, mixant points de sauvegarde et points de vérification. Dans la seconde partie de cette thèse, j'ai considéré des problèmes énergétiques liés à ces mêmes plateformes. Ces problèmes critiques doivent être reliés aux problèmes de fiabilité de la partie précédente. Dans ce contexte, j'ai couplé des techniques de baisse de consommation énergétique à des techniques d'augmentation de fiabilité comme la reexécution, la réplication ainsi que le checkpoint. Pour ces différents problèmes, j'ai pu fournir des algorithmes dont l'efficacité a été montrée soit au travers de simulations, soit grâce à des preuves mathématiques
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.55 (from 0.53 for Modeling t ... to 0.96 for Approche p ...)

Energy Efficiency in Large Scale Distributed Systems : COST IC0804 European Conference, EE-LSDS 2013, Vienna, Austria, April 22-24, 2013, Revised Selected Papers
Covers
Alternative Names
Georges Da Costa investigador

Georges Da Costa wetenschapper

Languages
English (26)

French (11)