WorldCat Identities

Stolf, Patricia (19..-....; enseignante-chercheuse en informatique)

Overview
Works: 17 works in 22 publications in 2 languages and 25 library holdings
Roles: Opponent, Thesis advisor, Author, Other, Contributor
Publication Timeline
.
Most widely held works by Patricia Stolf
Placement optimisé de services dans les architectures fog computing et internet of things sous contraintes d'énergie, de QoS et de mobilité by Tanissia Djemai( Book )

2 editions published in 2021 in French and held by 2 WorldCat member libraries worldwide

L'avènement de l'Internet of Things (IoT) soulève diverses problématiques, tant au niveau du développement que du déploiement des applications IoT dans les infrastructures de calculs. Par ailleurs, l'infrastructure de calcul la plus répandue de nos jours est celle du Cloud Computing reposant sur des centres de données centralisés communicants entre eux et avec les utilisateurs par le biais d'équipements réseau monolithiques et peu flexibles. L'importance de revoir ce schéma a été mise en avant dans le but de faire face aux défis d'un environnement IoT, hétérogène, mobile et générant une grande quantité de données exigeant des temps de traitements quasi-instantanés. Le modèle classique de l'IoT amenant les objets IoT à envoyer des informations via leurs passerelles au Cloud, qui ensuite fournit les services aux applications trouve des extensions dans l'approche Fog ou Edge permettant de rapprocher les services des usagers en s'appuyant notamment sur des équipements de calcul et de communication intermédiaires entre les utilisateurs et les centres de données. L'architecture Fog Computing est considérée comme étant l'un des schémas permettant d'exploiter la capacité de calcul et de stockage de l'infrastructure réseau en plus de celle du Cloud pour le déploiement des services IoT au plus près des objets IoT. Cependant, les équipements réseau sont hétérogènes et à faible capacité de calcul, ils couvrent une large zone géographique et doivent faire face à la mobilité des utilisateurs IoT. Tout ceci complexifie le problème du placement et de l'ordonnancement des services dans le but d'optimiser divers paramètres tels que l'énergie consommée, les différents coûts liés au placement et l'amélioration de la qualité de service des applications. L'objectif de notre thèse est de proposer des stratégies de placement de services IoT dans une architecture Fog tout en prenant en compte la nature dynamique de l'environnement apportée par la mobilité des objets IoT, le coût énergétique des infrastructures de calcul et les exigences en qualité de service des applications déployées
Gestion de ressources pour des services déportés sur des grappes d'ordinateurs avec qualité de service garantie by Patricia Stolf( Book )

2 editions published in 2004 in French and held by 2 WorldCat member libraries worldwide

De nombreuses applications de calcul haute performance requièrent une part importante de ressources. L'utilisation pour leur exécution de support de type cluster ou grille est alors intéressante. Cette thèse vise l'étude et la mise en place d'applications parallèles et séquentielles sur des grappes d'ordinateurs en assurant une gestion fine des ressources afin de définir une qualité de service prédéfinie. Elle aborde la modélisation du support d'exécution, l'expression des besoins des applications et enfin le placement. Deux approches sont proposées : un mode déterministe où tout ce qui s'exécute sur la machine est supposé contrôlé et un mode stochastique où une part de la charge des machines est inconnue. Toute application appartient à une des quatre classes de services définies ce qui détermine le niveau de qualité de service demandé. Des algorithmes de placement sont proposés sur un support de type cluster avec garantie de la qualité de service. Ils sont basés sur des simulations événementielles et des équations différentielles déduites de modèles markoviens. Une extension de l'algorithme au niveau grille est présentée. Les applications sont modélisées par un graphe de tâches communicantes. Les algorithmes ont été validés par simulation et sont intégrés dans un gestionnaire de ressources (AROMA scAlable Resources Manager and wAtcher). Un modèle économique simple est proposé permettant la facturation des clients
MILP formulations for spatio-temporal thermal-aware scheduling in Cloud and HPC datacenters by Jean-Marc Pierson( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Ordonnancement dans un centre de calculs alimenté par des sources d'énergie renouvelables sans connexion au réseau avec une charge de travail mixte basée sur des phases by Gustavo Rostirolla( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Les centres de données sont reconnus pour être l'un des principaux acteurs en matière de consommation d'énergie du fait de l'augmentation de l'utilisation du cloud, des services web et des applications de calcul haute performance dans le monde entier. En 2006, les centres de données ont consommé 61,4 milliards de kWh aux états-Unis. Au niveau mondial, les centres de données consomment actuellement plus d'énergie que l'ensemble du Royaume-Uni, c'est-à-dire environ 1,3% de la consommation électrique mondiale, et ils sont de fait appelés les usines de l'ère numérique. Un des moyens d'atténuer le changement climatique est d'alimenter les centres de données en énergie renouvelable (énergie propre). La grande majorité des fournisseurs de cloud computing qui prétendent alimenter leurs centres de données en énergie verte sont en fait connectés au réseau classique et déploient des panneaux solaires et des éoliennes ailleurs puis vendent l'électricité produite aux compagnies d'électricité. Cette approche entraîne des pertes d'énergie lorsque l'électricité traverse le réseau. Même si différents efforts ont été réalisés au niveau informatique dans les centres de données partiellement alimentés par des énergies renouvelables, des améliorations sont encore possibles notamment concernant l'ordonnancement prenant en compte les sources d'énergie renouvelables sur site sans connexion au réseau et leur intermittence. C'est le but du projet ANR DataZERO, dans le cadre duquel cette thèse a été réalisée. L'efficacité énergétique dans les centres de données étant directement liée à la consommation de ressources d'un nœud de calcul, l'optimisation des performances et un ordonnancement efficace des calculs sont essentiels pour économiser l'énergie. La spécificité principale de notre approche est de placer le centre de données sous une contrainte de puissance, provenant entièrement d'énergies renouvelables : la puissance disponible peut ainsi varier au cours du temps. L'ordonnancement de tâches sous ce genre de contrainte rend le problème plus difficile, puisqu'on doit notamment s'assurer qu'une tâche qui commence aura assez d'énergie pour aller jusqu'à son terme. Dans cette thèse, nous commençons par proposer une planification de tâches de type "batch" qui se caractérisent par leur instant d'arrivée, leur date d'échéance et leurs demandes de ressources tout en respectant une contrainte de puissance. Les données utilisées pour les tâches de type batch viennent de traces de centres de données et contiennent des mesures de consommation CPU, mémoire et réseau. Quant aux enveloppes de puissance considérées, elles représentent ce que pourrait fournir un module de décision électrique, c'est-à-dire la production d'énergie prévue (énergie renouvelable seulement) basée sur les prévisions météorologiques. L'objectif est de maximiser la Qualité de Service avec une contrainte sur la puissance électrique. Par la suite, nous examinons une charge de travail composée de tâches de type "batch" et de services, où la consommation des ressources varie au cours du temps. Les tracecs utilisées pour les services proviennent d'une centre de données à "business critique". Dans ce cadre, nous envisageons le concpet de phases, dans lequel les changements significatifs de consommation de resources à l'intérieur d'une même tâche marquent le début d'une nouvelle phase. Nous considérons également un modèle de tâches pouvant recevoir moins de ressources que demandées. Nous étudions l'impact de ce modèle sur le profit du centre de données pour chaque type de tâche. Nous intégrons aussi le concept de "corrélation croisée" pour évaluer où placer une tâche selon une courbe de puissance afin de trouver le meilleur nœud pour placer plusieurs tâches (c.-à-d. Partager les ressources)
Modélisation formelle de systèmes dynamiques autonomes : graphe, réécriture et grammaire by Cédric Eichler( Book )

2 editions published in 2015 in French and held by 2 WorldCat member libraries worldwide

Modern, large-scale systems are deployed in changing environments. They must dynamically adapt to context changes. In this scope, autonomic computing aims at reducing slow and costly human interventions, by building self-managed systems. Self-adaptability of a system is primarily based on a suitable description of its components, their interactions and the various states it can adopt. Various modeling approaches have been elaborated. They usually focus on some aspects or properties of dynamic systems and do not tackle each of self-management's requirements. This manuscript deals with graph-based representations of dynamic systems and their suitability for the implementation of autonomic computing's four fundamental properties : self-optimization, self-protection, self-healing and self-configuring. This thesis offers four principal theoretical and applied contributions. The first one is a methodology for the construction and generative characterization of transformations correct by construction whose application necessarily preserves a system's correctness. The second one consists in an extension of graph rewriting systems allowing to easily and efficiently represent, update, evaluate and configure a system's characteristics. An experimental study reveals a significant efficiency gain with regard to classical methods. The two lasts contribution are articulated around the design of two autonomic managers driving: (1) complex events processing requests and (2) any Machine-to-Machine system complying to the ETSI M2M2 standard
Enhanced graph rewriting systems for complex software domains Dynamic software architecture, non-functional requirements, and correctness by construction by Cédric Eichler( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

Support intergiciel pour la conception et le déploiement adaptatifs fiables, application aux bâtiments intelligents by Adja Ndeye Sylla( )

1 edition published in 2017 in French and held by 2 WorldCat member libraries worldwide

In the context of pervasive computing and internet of things, systems are heterogeneous,distributed and adaptive (e.g., transport management systems, building automation). Thedesign and the deployment of these systems are made difficult by their heterogeneous anddistributed nature but also by the risk of conflicting adaptation decisions and inconsistenciesat runtime. Inconsistencies are caused by hardware failures or communication errors. Theyoccur when actions corresponding to the adaptation decisions are assumed to be performedbut are not done.This thesis proposes a middleware support, called SICODAF, for the design and thedeployment of reliable adaptive systems. SICODAF combines a behavioral reliability (absenceof conflicting decisions) by means of transitions systems and an execution reliability(absence of inconsistencies) through a transactional middleware. SICODAF is based on autonomiccomputing. It allows to design and deploy an adaptive system in the form of anautonomic loop which consists of an abstraction layer, a transactional execution mechanismand a controller. SICODAF supports three types of controllers (based on rules, on continuousor discrete control theory). SICODAF also allows for loop reconfiguration, to dealwith changing objectives in the considered system, and the integration of a hardware failuredetection system. Finally, SICODAF allows for the design of multiple loops for systems thatconsist of a high number of entities or that require controllers of different types. These loopscan be combined in parallel, coordinated or hierarchical.SICODAF was implemented using the transactional middleware LINC, the abstractionenvironment PUTUTU and the language Heptagon/BZR that is based on transitionssystems. SICODAF was also evaluated using three case studies
Datacenter management for on-site intermittent and uncertain renewable energy sources by Léo Grange( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Les technologies de l'information et de la communication sont devenues, au cours des dernières années, un pôle majeur de consommation énergétique avec les conséquences environnementales associées. Dans le même temps, l'émergence du Cloud computing et des grandes plateformes en ligne a causé une augmentation en taille et en nombre des centres de données. Pour réduire leur impact écologique, alimenter ces centres avec des sources d'énergies renouvelables (EnR) apparaît comme une piste de solution. Cependant, certaines EnR telles que les énergies solaires et éoliennes sont liées aux conditions météorologiques, et sont par conséquent intermittentes et incertaines. L'utilisation de batteries ou d'autres dispositifs de stockage est souvent envisagée pour compenser ces variabilités de production. De par leur coût important, économique comme écologique, ainsi que les pertes énergétiques engendrées, l'utilisation de ces dispositifs sans intégration supplémentaire est insuffisante. La consommation électrique d'un centre de données dépend principalement de l'utilisation des ressources de calcul et de communication, qui est déterminée par la charge de travail et les algorithmes d'ordonnancement utilisés. Pour utiliser les EnR efficacement tout en préservant la qualité de service du centre, une gestion coordonnée des ressources informatiques, des sources électriques et du stockage est nécessaire. Il existe une grande diversité de centres de données, ayant différents types de matériel, de charge de travail et d'utilisation. De la même manière, suivant les EnR, les technologies de stockage et les objectifs en termes économiques ou environnementaux, chaque infrastructure électrique est modélisée et gérée différemment des autres. Des travaux existants proposent des méthodes de gestion d'EnR pour des couples bien spécifiques de modèles électriques et informatiques. Cependant, les multiples combinaisons de ces deux parties rendent difficile l'extrapolation de ces approches et de leurs résultats à des infrastructures différentes. Cette thèse explore de nouvelles méthodes pour résoudre ce problème de coordination. Une première contribution reprend un problème d'ordonnancement de tâches en introduisant une abstraction des sources électriques. Un algorithme d'ordonnancement est proposé, prenant les préférences des sources en compte, tout en étant conçu pour être indépendant de leur nature et des objectifs de l'infrastructure électrique. Une seconde contribution étudie le problème de planification de l'énergie d'une manière totalement agnostique des infrastructures considérées. Les ressources informatiques et la gestion de la charge de travail sont encapsulées dans une boîte noire implémentant un ordonnancement sous contrainte de puissance. La même chose s'applique pour le système de gestion des EnR et du stockage, qui agit comme un algorithme d'optimisation d'engagement de sources pour répondre à une demande. Une optimisation coopérative et multiobjectif, basée sur un algorithme évolutionnaire, utilise ces deux boîtes noires afin de trouver les meilleurs compromis entre les objectifs électriques et informatiques. Enfin, une troisième contribution vise les incertitudes de production des EnR pour une infrastructure plus spécifique. En utilisant une formulation en processus de décision markovien (MDP), la structure du problème de décision sous-jacent est étudiée. Pour plusieurs variantes du problème, des méthodes sont proposées afin de trouver les politiques optimales ou des approximations de celles-ci avec une complexité raisonnable
Understanding and improving HPC performance using Machine Learning and Statistical analysis by Salah Zrigui( )

1 edition published in 2021 in English and held by 1 WorldCat member library worldwide

The infrastructure of High Performance Computing (HPC) systems is rapidly increasing in complexity and scale. New components and innovations are added at a fast pace. This instigates the need for more efforts towards understanding such systems and designing new, more adapted optimization schemes.This thesis is a series of data-driven analytical and experimental campaigns with two goals in mind. (i) To improve the performance of HPC systems with a focus on scheduler performance. (ii) To better understand the inner workings of HPC systems, which includes scheduling evaluation methods and energy behavior of submitted jobs.We start by performing a comparative study. We focus on the evaluation methods of schedulers. We study two well-established metrics (waiting time and slowdown) and one less popular metric (per-processor-slowdown). We also evaluate other effects, such as the relationship between job size and the slowdown, the distribution of slowdown values, and the number of backfilled jobs. We focus on the popular First-Come-First-Served (FCFS) and compare it to other simple scheduling policies. We show that relinquishing FCFS is not as risky as it is perceived to be. We argue that using other ordering policies in combination with a simple thresholding mechanism can offer similar guarantees with significantly better performance.Then, we proceed to show the limits of simple scheduling policies and we design and test two machine learning-based paradigms to improve performance beyond what these basic policies can offer. First, we propose a method to dynamically generate new scheduling policies that adapt to the changing nature of data in any given platform. Also, we study the possibility of applying online learning on scheduling data, and we detail the difficulties that one might encounter in such an endeavor.%vspace{5mm}For the second approach, we improve the performance of already established scheduling policies by reducing the inherent uncertainty in the scheduling data. More precisely, the inaccuracy of user runtimes estimates. We propose a simple classification of jobs into small and large. We show that this classification is sufficient to harness most of the improvement that can be gained from accurate runtimes estimates. We use machine learning to predict the classes and improve performance across all studied platforms.Finally, we analyze the energy consumption of HPC platforms. We study the energy profiles of individual jobs. We Observe the similarities and differences between energy profiles and we propose a series of statistical tests through which we classify the jobs into periodic, constant, and non-stationary. We believe that this classification can be used to predict the energy consumption of future jobs and build energy-aware schedulers
Scalable and Efficient Data Management in Distributed Clouds : Service Provisioning and Data Processing by Jad Darrous( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

This thesis focuses on scalable data management solutions to accelerate service provisioning and enable efficient execution of data-intensive applications in large-scale distributed clouds. Data-intensive applications are increasingly running on distributed infrastructures (multiple clusters). The main two reasons for such a trend are 1) moving computation to data sources can eliminate the latency of data transmission, and 2) storing data on one site may not be feasible given the continuous increase of data size.On the one hand, most applications run on virtual clusters to provide isolated services, and require virtual machine images (VMIs) or container images to provision such services. Hence, it is important to enable fast provisioning of virtualization services to reduce the waiting time of new running services or applications. Different from previous work, during the first part of this thesis, we worked on optimizing data retrieval and placement considering challenging issues including the continuous increase of the number and size of VMIs and container images, and the limited bandwidth and heterogeneity of the wide area network (WAN) connections.On the other hand, data-intensive applications rely on replication to provide dependable and fast services, but it became expensive and even infeasible with the unprecedented growth of data size. The second part of this thesis provides one of the first studies on understanding and improving the performance of data-intensive applications when replacing replication with the storage-efficient erasure coding (EC) technique
Resource allocation in a Cloud partially powered by renewable energy sources by Yunbo Li( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

Most of the energy-efficient Cloud frameworks proposed in literature do not consider electricity availability and renewable energy in their models. Integrating renewable energy into data centers significantly reduces the traditional energy consumption and carbon footprint of these energy-hungry infrastructures. As renewable energy is intermittent and fluctuates with time-varying, it is usually under-utilized. We address the problem of improving the utilization of renewable energy for a single data center and investigate two approaches: opportunistic scheduling and energy storage. Our results demonstrate that both approaches are able to reduce the brown energy consumption under different configurations. We extend this work to the context of Edge Clouds and Internet of Things on the use case of data stream analysis. We show how to make Edge Clouds greener with on-site renewable energy production combined with energy storage and performance degradation of the users' applications
Scheduling Solutions for Data Stream Processing Applications on Cloud-Edge Infrastructure by Felipe Rodrigo De Souza( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

Technology has evolved to a point where applications and devicesare highly connected and produce ever-increasing amounts of dataused by organizations and individuals to make daily decisions. Forthe collected data to become information that can be used indecision making, it requires processing. The speed at whichinformation is extracted from data generated by a monitored systemTechnology has evolved to a point where applications and devicesare highly connected and produce ever-increasing amounts of dataused by organizations and individuals to make daily decisions. Forthe collected data to become information that can be used indecision making, it requires processing. The speed at whichinformation is extracted from data generated by a monitored systemor environment affects how fast organizations and individuals canreact to changes. One way to process the data under short delays isthrough Data Stream Processing (DSP) applications. DSPapplications can be structured as directed graphs, where the vertexesare data sources, operators, and data sinks, and the edges arestreams of data that flow throughout the graph. A data source is anapplication component responsible for data ingestion. Operatorsreceive a data stream, apply some transformation or user-definedfunction over the data stream and produce a new output stream,until the latter reaches a data sink, where the data is stored,visualized or provided to another application
Quality of Service Aware Mechanisms for (Re)Configuring Data Stream Processing Applications on Highly Distributed Infrastructure by Alexandre Da Silva Veith( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Une grande partie de ces données volumineuses ont plus de valeur lorsqu'elles sont analysées rapidement, au fur et à mesure de leur génération. Dans plusieurs scénarios d'application émergents, tels que les villes intelligentes, la surveillance opérationnelle de grandes infrastructures et l'Internet des Objets (Internet of Things), des flux continus de données doivent être traités dans des délais très brefs. Dans plusieurs domaines, ce traitement est nécessaire pour détecter des modèles, identifier des défaillances et pour guider la prise de décision. Les données sont donc souvent rassemblées et analysées par des environnements logiciels conçus pour le traitement de flux continus de données. Ces environnements logiciels pour le traitement de flux de données déploient les applications sous-la forme d'un graphe orienté ou de dataflow. Un dataflow contient une ou plusieurs sources (i.e. capteurs, passerelles ou actionneurs); opérateurs qui effectuent des transformations sur les données (e.g., filtrage et agrégation); et des sinks (i.e., éviers qui consomment les requêtes ou stockent les données). Nous proposons dans cette thèse un ensemble de stratégies pour placer les opérateurs dans une infrastructure massivement distribuée cloud-edge en tenant compte des caractéristiques des ressources et des exigences des applications. En particulier, nous décomposons tout d'abord le graphe d'application en identifiant quelques comportements tels que des forks et des joints, puis nous le plaçons dynamiquement sur l'infrastructure. Des simulations et un prototype prenant en compte plusieurs paramètres d'application démontrent que notre approche peut réduire la latence de bout en bout de plus de 50% et aussi améliorer d'autres métriques de qualité de service. L'espace de recherche de solutions pour la reconfiguration des opérateurs peut être énorme en fonction du nombre d'opérateurs, de flux, de ressources et de liens réseau. De plus, il est important de minimiser le coût de la migration tout en améliorant la latence. Des travaux antérieurs, Reinforcement Learning (RL) et Monte-Carlo Tree Searh (MCTS) ont été utilisés pour résoudre les problèmes liés aux grands nombres d'actions et d'états de recherche. Nous modélisons le problème de reconfiguration d'applications sous la forme d'un processus de décision de Markov (MDP) et étudions l'utilisation des algorithmes RL et MCTS pour concevoir des plans de reconfiguration améliorant plusieurs métriques de qualité de service
Médium malgré moi by Patricia Pascal( Book )

1 edition published in 2009 in French and held by 1 WorldCat member library worldwide

On the mapping of distributed applications onto multiple Clouds by Pedro Paulo De Souza Bento Da Silva( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

The Cloud has become a very popular platform for deploying distributed applications. Today, virtually any credit card holder can have access to Cloud services. There are many different ways of offering Cloud services to customers. In this thesis we especially focus on theInfrastructure as a Service (IaaS), a model that, usually, proposes virtualized computing resources to costumers in the form of virtual machines (VMs). Thanks to its attractive pay-as-you-use cost model, it is easier for customers, specially small and medium companies, to outsource hosting infrastructures and benefit of savings related to upfront investments and maintenance costs. Also, customers can have access to features such as scalability, availability, and reliability, which previously were almost exclusive for large companies. To deploy a distributed application, a Cloud customer must first consider the mapping between her application (or its parts) to the target infrastructure. She needs to take into consideration cost, resource, and communication constraints to select the most suitable set of VMs, from private and public Cloud providers. However, defining a mapping manually may be a challenge in large-scale or time constrained scenarios since the number of possible configuration explodes. Furthermore, when automating this process, scalability issues must be taken into account given that this mapping problem is a generalization of the graph homomorphism problem, which is NP-complete.In this thesis we address the problem of calculating initial and reconfiguration placements for distributed applications over possibly multiple Clouds. Our objective is to minimize renting and migration costs while satisfying applications' resource and communication constraints. We concentrate on the mapping between applications and Cloud infrastructure. Using an incremental approach, we split the problem into three different parts and propose efficient heuristics that can compute good quality placements very quickly for small and large scenarios. These heuristics are based on graph partition and vector packing heuristics and have been extensively evaluated against state of the art approaches such as MIP solvers and meta-heuristics. We show through simulations that the proposed heuristics manage to compute solutions in a few seconds that would take many hours or days for other approaches to compute
Scheduling on Clouds considering energy consumption and performance trade-offs : from modelization to industrial applications by Daniel Balouek-Thomert( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

L'utilisation massive des services connectés dans les entreprises et les foyers a conduit à un développement majeur des "Ciouds" ou informatique en nuage. Les Clouds s'imposent maintenant comme un modèle économique attractif où le client paye pour utiliser des ressources ou des services à la demande sans avoir à se préoccuper de la maintenance ou du coût réel de l'infrastructure. Ce développement rencontre cependant un obstacle majeur du point de vue des fournisseurs de ce type d'architecture : la consommation électrique des moteurs du cloud, les "datacenters" ou centre de données.Cette thèse s'intéresse à l'efficacité énergétique des Clouds en proposant un framework d'ordonnancement extensible et multi-critères dans le but d'augmenter le rendement d'une infrastructure hétérogène d'un point de vue énergétique. Nous proposons une approche basée sur un curseur capable d'aggréger les préférences de l'opérateur et du client pour la création de politiques d'ordonnancement. L'enjeu est de dimensionner au plus juste le nombre de serveurs et composants actifs tout en respectant les contraintes d'exploitation, et ainsi réduire les impacts environnementaux liés à une consommation superflue.Ces travaux ont été validés de façon expérimentale sur la plateforme Grid'SOOO par leur intégration au sein de l'intergiciel DIET et font l'objet d'un transfert industriel au sein de la plateforme NUVEA que nous proposons. Cette plate-forme fournit un accompagnement pour l'opérateur et l'utilisateur allant de l'audit à l'optimisation des infrastructures
L'important n'est pas de convaincre mais de donner à réfléchir by Patricia Pascal( )

in French and held by 1 WorldCat member library worldwide

 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.94 (from 0.86 for Resource a ... to 0.97 for MILP formu ...)

Alternative Names
Pascal, Patricia

Languages
English (13)

French (9)