WorldCat Identities

École doctorale Mathématiques, informatique et télécommunications (Toulouse)

Works: 647 works in 976 publications in 2 languages and 977 library holdings
Roles: Other, Degree grantor, 996
Publication Timeline
Most widely held works by informatique et télécommunications (Toulouse) École doctorale Mathématiques
Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs by Amira Dkhil( Book )

3 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics
Conception et évaluation des systèmes interactifs mixtes selon une approche centrée utilisateurs by Syrine Charfi( Book )

2 editions published in 2009 in French and held by 3 WorldCat member libraries worldwide

Mixed Interactive Systems (MIS) encompass mixed and augmented reality, augmented virtuality, and tangible interfaces systems. MIS require heterogeneous objects, such as real world physical object and specific electronic devices. These particular aspects lead to different modeling approaches from classical user interfaces. Existing models neither integrate MIS in the global user activity, nor take into account the dynamics of mixed interactive situations. Besides, MIS require different usability approaches since they have an impact on the physical environment and user habits. However, existing ergonomic knowledge and methods don't totally cover MIS specific aspects. In this work, we propose, firstly, to extract usability recommendations (U.R.) dedicated to MIS, resulting from a systematic review of the literature. These U.R. represent a tool that leads to make ergonomics considerations during the design. Secondly, we use task models to integrate MIS interaction in the user activity, and MIS interaction models to describe their complexity
Airport strategic planning under uncertainty : fuzzy dual dynamic programming approach by Elena Mihaela Capitanul( Book )

2 editions published in 2016 in English and held by 3 WorldCat member libraries worldwide

Les aéroports sont des connecteurs critiques dans le système opérationnel de transport aérien. Afin de répondre à leurs obligations opérationnelles, économiques et sociales dans un environnement très volatil, ont besoin d'aéroports à embrasser le changement plutôt que d'y résister. Comme toute autre industrie, font face à des aéroports un large éventail de risques, dont certains spécifiques au transport aérien, les autres ayant seulement une influence indirecte mais assez puissant pour perturber les activités aéroportuaires. La planification longue terme de l'aéroport est devenue une question complexe en raison de la croissance constante de la demande de trafic aérien. Une nouvelle dimension de complexité est apparue lorsque l'incertitude a commencé à avoir un impact plus en plus perturbatrice, et significativement coûteuse sur le développement des infrastructures aéroportuaires. Historiquement, la capacité des outils traditionnels pour atténuer le risque et l'incertitude ont avérée inefficace. D'innombrables événements imprévus comme les attaques terroristes, la récession économique, les catastrophes naturelles, ont eu un impact dramatique sur les niveaux de trafic, certains avec une portée mondiale. Pour ce type hautement improbable d'événements peut être ajouté les progrès technologiques, de nouvelles modèles d'affaires des compagnies aériennes et aéroports, les changements de politique et de réglementation, préoccupation croissante pour l'impact environnemental. Dans ce contexte, la thèse met en avant une approche novatrice pour aborder l'évaluation des risques et de l'atténuation dans l'incertitude dans les projets de développement des infrastructures aéroportuaires à long terme. La thèse se développe sur le formalisme récemment développée de nombres flous comme un outil clé pour aborder l'incertitude. Après un examen approfondi de l'industrie aéroportuaire dans le contexte des environnements incertains, nombres double flous et double floue arithmétiques sont introduits. Comme le projet de développement des infrastructures aéroportuaires est un autre cas de problème de prise de décision en plusieurs étapes, la programmation dynamique est prise en compte afin d'optimiser le processus séquentiel de prise de décision. L'originalité de l'approche réside dans le fait que l'ensemble du processus sera floue et la composante double floue de la programmation dynamique sera introduite. Pour valider notre méthode, une étude de cas sera développée
Segmentation endodontique sur des images scanner 3D : méthodes et validation by Jérôme Michetti( )

2 editions published in 2019 in French and held by 3 WorldCat member libraries worldwide

In dental offices, endodontic or root canal treatments are daily performed (over 6 million treatments per year in France). A good knowledge of the root canal anatomy (inside of the tooth or pulp) is an indispensable prerequisite for ensuring the success of root canal treatment. To understand and overpass common morphological variations which are potential source of failures during the treatment, two-dimensional (2D) intra buccal radiography can help dental surgeons. However, distortion, anatomical compression and neighboring anatomical structures superposition reduce image quality and do not allow an accurate qualitative and quantitative evaluation of the root canal anatomy. Cone-beam computed tomography (CBCT) available in dental offices might be an alternative by providing 3D reconstructions of dento-maxillofacial structures. But the evaluation of the diagnostic accuracy of dental CBCT devices in identifying root canal anatomy is necessary to justify their indication in endodontic treatment. Indeed, root canal segmentation on (CBCT) images is difficult because of the noise level, resolution limitations, and to the difficulty to validate results. To help dental surgeons in root canal treatment, this thesis aims at providing image processing methods in order to develop segmentation and visualization methods of the inside of the teeth. To begin with, we have introduced the root canal morphology, the different rules of the root canal treatment and described technical specifications of CBCT devices. We also investigated existing techniques and methods to explore quantitatively root canal anatomy on high resolution microcomputed tomography (µCT) images. Afterwards, we proposed a method to evaluate CBCT endodontic segmentation results by comparing with equivalent µCT data. To validate this method and to test endodontic segmentation on CBCT images, we developed a local adaptive thresholding and evaluated results on extracted teeth. To ensure validation on image quality similar to in vivo condition (quality reduced by anatomical structures in and out of the field of view), we designed and validated a periodontal phantom which are made around extracted teeth and allowing to preserve comparison with the ground truth providing by the µCT. At the end of the thesis, we evocated our perspectives based on deep learning and our first results to compensate image quality reduction in order to test endodontic segmentation in clinical condition
Optimisation des trajectoires avion dans l'Atlantique Nord by Olga Rodionova( Book )

2 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

This thesis investigates the ways to improve the air traffic system in the highly congested North Atlantic oceanic airspace (NAT). First, we consider the current system, where aircraft follow predefined NAT tracks. We favor the re-routings between tracks, decreasing congestion in pre-oceanic airspace, and apply stochastic methods of optimization to find a conflict-free flight configuration with reduced separation between aircraft. Second, we simulate trajectory prediction by Wind Networking (WN). While the main source of time prediction errors is the uncertainty in wind forecast, WN permits aircraft to exchange measured winds and adjust their predictions using this recent and accurate information. Third, we study the impact of introducing the free flight concept in NAT. We apply a stochastic method of optimization on data provided by NASA consisting of NAT flights with wind optimal trajectories. The aim is to reduce the number of conflicts on the strategic level, while keeping the trajectories close to the optimal routes. Our computational experiments show that the air traffic situation in NAT can be improved in several different ways, considering new technologies and new trajectory planning concepts
Algorithmes génétiques parallèles pour résoudre des problèmes d'ordonnancement de tâches dynamiques de manière efficace en prenant en compte l'énergie by Jia Luo( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Due to new government legislation, customers' environmental concerns and continuously rising cost of energy, energy efficiency is becoming an essential parameter of industrial manufacturing processes in recent years. Most efforts considering energy issues in scheduling problems have focused on static scheduling. But in fact, scheduling problems are dynamic in the real world with uncertain new arrival jobs after the execution time. In this thesis, two energy efficient dynamic scheduling problems are studied. Model I analyzes the total tardiness and the makespan with a peak power limitation while considering the flexible flow shop with new arrival jobs. A periodic complete rescheduling approach is adopted to represent the optimization problem. Model II concerns an investigation into minimizing total tardiness and total energy consumption in the job shop with new urgent arrival jobs. An event driven schedule repair approach is utilized to deal with the updated schedule. As an adequate renewed scheduling plan needs to be obtained in a short response time in dynamic environment, two parallel Genetic Algorithms (GAs) are proposed to solve these two models respectively. The parallel GA I is a CUDA-based hybrid model consisting of an island GA at the upper level and a fine-grained GA at the lower level. It combines metrics of two hierarchical layers and takes full advantage of CUDA's compute capability. The parallel GA II is a dual heterogeneous design composed of a cellular GA and a pseudo GA. The islands with these two different structures increase the population diversity and can be well parallelized on GPUs simultaneously with multi-core CPU. Finally, numerical experiments are conducted and show that our approaches can not only solve the problems flexibly, but also gain competitive results and reduce time requirements
Energy management in content distribution network servers by Saif Ul Islam( Book )

2 editions published in 2015 in English and held by 2 WorldCat member libraries worldwide

Les infrastructures Internet et l'installation d'appareils très gourmands en énergie (en raison de l'explosion du nombre d'internautes et de la concurrence entre les services efficaces offerts par Internet) se développent de manière exponentielle. Cela entraîne une augmentation importante de la consommation d'énergie. La gestion de l'énergie dans les systèmes de distribution de contenus à grande échelle joue un rôle déterminant dans la diminution de l'empreinte énergétique globale de l'industrie des TIC (Technologies de l'information et de la communication). Elle permet également de diminuer les coûts énergétiques d'un produit ou d'un service. Les CDN (Content Delivery Networks) sont parmi les systèmes de distribution à grande échelle les plus populaires, dans lesquels les requêtes des clients sont transférées vers des serveurs et traitées par des serveurs proxy ou le serveur d'origine, selon la disponibilité des contenus et la politique de redirection des CDN. Par conséquent, notre objectif principal est de proposer et de développer des mécanismes basés sur la simulation afin de concevoir des politiques de redirection des CDN. Ces politiques prendront la décision dynamique de réduire la consommation d'énergie des CDN. Enfin, nous analyserons son impact sur l'expérience utilisateur. Nous commencerons par une modélisation de l'utilisation des serveurs proxy et un modèle de consommation d'énergie des serveurs proxy basé sur leur utilisation. Nous ciblerons les politiques de redirection des CDN en proposant et en développant des politiques d'équilibre et de déséquilibre des charges (en utilisant la loi de Zipf) pour rediriger les requêtes des clients vers les serveurs. Nous avons pris en compte deux techniques de réduction de la consommation d'énergie : le DVFS (Dynamic Voltage Frequency Scaling) et la consolidation de serveurs. Nous avons appliqué ces techniques de réduction de la consommation d'énergie au contexte d'un CDN (au niveau d'un serveur proxy), mais aussi aux politiques d'équilibre et de déséquilibre des charges afin d'économiser l'énergie. Afin d'évaluer les politiques et les mécanismes que nous proposons, nous avons mis l'accent sur la manière de rendre l'utilisation des ressources des CDN plus efficace, mais nous nous sommes également intéressés à leur coût en énergie, à leur impact sur l'expérience utilisateur et sur la qualité de la gestion des infrastructures. Dans ce but, nous avons défini comme métriques d'évaluation l'utilisation des serveurs proxy, d'échec des requêtes comme les paramètres les plus importants. Nous avons transformé un simulateur d'événements discrets CDNsim en Green CDNsim, et évalué notre travail selon différents scénarios de CDN en modifiant : les infrastructures proxy des CDN (nombre de serveurs proxy), le trafic (nombre de requêtes clients) et l'intensité du trafic (fréquence des requêtes client) en prenant d'abord en compte les métriques d'évaluation mentionnées précédemment. Nous sommes les premiers à proposer un DVFS et la combinaison d'un DVFS avec la consolidation d'un environnement de simulation de CDN en prenant en compte les politiques d'équilibre et de déséquilibre des charges. Nous avons conclu que les techniques d'économie d'énergie permettent de réduire considérablement la consommation d'énergie mais dégradent l'expérience utilisateur. Nous avons montré que la technique de consolidation des serveurs est plus efficace dans la réduction d'énergie lorsque les serveurs proxy ne sont pas beaucoup chargés. Dans le même temps, il apparaît que l'impact du DVFS sur l'économie d'énergie est plus important lorsque les serveurs proxy sont bien chargés. La combinaison des deux (DVFS et consolidation des serveurs) permet de consommer moins d'énergie mais dégrade davantage l'expérience utilisateur que lorsque ces deux techniques sont utilisées séparément
Analyse multi-échelle de nuage de points by Thibault Lejemble( Book )

2 editions published in 2020 in English and held by 2 WorldCat member libraries worldwide

Les techniques d'acquisition numérique 3D comme la photogrammétrie ou les scanners laser sont couramment utilisées dans de nombreux domaines d'applications tels que l'ingénierie inverse, l'archéologie, la robotique, ou l'urbanisme. Le principal objectif est d'obtenir des versions virtuels d'objets réels afin de les visualiser, analyser et traiter plus facilement. Ces techniques d'acquisition deviennent de plus en plus performantes et accessibles, créant un besoin important de traitement efficace des données 3D variées et massives qui en résultent. Les données sont souvent obtenues sont sous la forme de nuage de points 3D non-structurés qui échantillonnent la surface scannée. Les méthodes traditionnelles de traitement du signal ne peuvent alors s'appliquer directement par manque de paramétrisation spatiale, les points étant explicités par leur coordonnées 3D, sans ordre particulier. Dans cette thèse nous nous focalisons sur la notion d'échelle d'analyse qui est définie par la taille du voisinage utilisé pour caractériser localement la surface échantillonnée. L'analyse à différentes échelles permet de considérer des formes variées et ainsi rendre l'analyse plus pertinente et plus robuste aux imperfections des données acquises. Nous présentons d'abord des résultats théoriques et pratiques sur l'estimation de courbure adaptée à une représentation multi-échelle et multi-résolution de nuage de points. Nous les utilisons pour développer des algorithmes multi-échelle de reconnaissance de formes planaires et anisotropes comme les cylindres et les lignes caractéristiques. Enfin, nous proposons de calculer une paramétrisation 2D globale de la surface sous-jacente directement à partir de son nuage de points 3D non-structurés
Limites d'échelle de marches aléatoires contraintes by Fabien Montégut( Book )

2 editions published in 2020 in French and held by 2 WorldCat member libraries worldwide

This thesis falls within the field of limit theorems for Markov chains. We consider sequences of Markov chains, and focus on proving double asymptotics for such processes as both the time and the index in the sequence tend to infinity. In a first phase we will focus on the prisonners model in which a finite number of random walkers are constrained to stay close to each other. Our goal is to determine the limit behavior as the time and the number of prisonners is increasing, using the Hodge decomposition of an additive functionnal of a random walk on a finite graph, in line with previous work of Boissard, Cohen, Espinasse and Norris. Then we develop a generalisation of this model in which the Hodge decomposition can be used to prove limit theorem in double asymptotics. Finally we will consider two other models - the random walks in graphite and the dollar K dollar-dimensional hypercubes - in which the previous techniques allow us to prove scaling limits in both contexts
Méthodes de séparation aveugle de sources et application à l'imagerie hyperspectrale en astrophysique by Axel Boulais( Book )

2 editions published in 2017 in French and held by 2 WorldCat member libraries worldwide

This thesis deals with the development of new blind separation methods for linear instantaneous mixtures applicable to astrophysical hyperspectral data sets. We propose three approaches to perform data separation. A first contribution is based on hybridization of two existing blind source separation (BSS) methods: the SpaceCORR method, requiring a sparsity assumption, and a non-negative matrix factorization (NMF) method. We show that using SpaceCORR results to initialize the NMF improves the performance of the methods used alone. We then proposed a first original method to relax the sparsity constraint of SpaceCORR. The method called MASS (Maximum Angle Source Separation) is a geometric method based on the extraction of single-source pixels to achieve the separation of data. We also studied the hybridization of MASS with the NMF. Finally, we proposed an approach to relax the sparsity constraint of SpaceCORR. The original method called SIBIS (Subspace-Intersection Blind Identification and Separation) is a geometric method based on the identification of intersections of subspaces generated by regions of the hyperspectral image. Under a sparsity assumption, these intersections allow one to achieve the separation of the data. The approaches proposed in this manuscript have been validated by experimentations on simulated data and then applied to real data. The results obtained on our data are very encouraging and are compared with those obtained by methods from the literature
Géométrie birationnelle : classique et dérivée by Sara Durighetto( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Dans le cadre de la géométrie algébrique, l'étude des transformations birationnelles et des leurs proprietés jouent un rôle déterminant. Ou bien par l'approche classique de l'école italienne qui met l'accent sur le groupe de Cremona, ou bien par une approche plus moderne qui utilise des objets comme les catégories dérivées et leurs décompositions semiorthogonales. Le groupe de Cremona Crn, notamment le groupe des automorphismes birationnels du Pn, est en general peu connu notamment on travaille principalement sur le corp complexe. On connait un ensemble des générateurs seulement pour n = 2. On ne connait pas une classification des courbes et systemes linéaires de P2 pour transformations de Cremona. Un exemple des résultats qu'il y a est la caractérisation de la contractibilité des courbes irreductibles et des courbes obtenues par union des deux components irreductibles. Le but de cette thèse est de s'approcher en cas d'une configuration de droites dans P2. Le théorème final fournit les conditions nécessaires ou suffisantes à la contractibilité. En termes catégoriels, les décompositions semiorthogonales de la catégorie dérivée d'une variété fournissent des invariants pour étudier la variété. En s'inspirant de l'approche de Clemens-Griffiths sur la cubique complexe en dimension 3, on veut caractériser les obstructions à la rationalité d'une variété de dimension n. L'idée est de pouvoir isoler les composantes qui ne sont pas équivalentes à la catégorie dérivée d'une variété de dimension au plus n - 2 et, de cette façon, définir ce que l'on appelle la composante de Griffiths-Kuznetsov. Dans cette thèse on étude le cas des surfaces sur un corps arbitraire, on définit de telles composantes et on démontre qu'elles donnent un invariant birationnel. On peut voir aussi que la composante de Griffiths-Kuznetsov est nulle si et seulement si la surface est rationnelle
Jointly integrating current context and social influence for improving recommendation by Meriam Bambia( Book )

2 editions published in 2017 in English and held by 2 WorldCat member libraries worldwide

La diversité des contenus recommandation et la variation des contextes des utilisateurs rendent la prédiction en temps réel des préférences des utilisateurs de plus en plus difficile mettre en place. Toutefois, la plupart des approches existantes n'utilisent que le temps et l'emplacement actuels séparément et ignorent d'autres informations contextuelles sur lesquelles dépendent incontestablement les préférences des utilisateurs (par exemple, la météo, l'occasion). En outre, ils ne parviennent pas considérer conjointement ces informations contextuelles avec les interactions sociales entre les utilisateurs. D'autre part, la résolution de problèmes classiques de recommandation (par exemple, aucun programme de télévision vu par un nouvel utilisateur connu sous le nom du problème de démarrage froid et pas assez d'items co-évalués par d'autres utilisateurs ayant des préférences similaires, connu sous le nom du problème de manque de donnes) est d'importance significative puisque sont attaqués par plusieurs travaux. Dans notre travail de thèse, nous proposons un modèle probabiliste qui permet exploiter conjointement les informations contextuelles actuelles et l'influence sociale afin d'améliorer la recommandation des items. En particulier, le modèle probabiliste vise prédire la pertinence de contenu pour un utilisateur en fonction de son contexte actuel et de son influence sociale. Nous avons considérer plusieurs éléments du contexte actuel des utilisateurs tels que l'occasion, le jour de la semaine, la localisation et la météo. Nous avons utilisé la technique de lissage Laplace afin d'éviter les fortes probabilités. D'autre part, nous supposons que l'information provenant des relations sociales a une influence potentielle sur les préférences des utilisateurs. Ainsi, nous supposons que l'influence sociale dépend non seulement des évaluations des amis mais aussi de la similarité sociale entre les utilisateurs. Les similarités sociales utilisateur-ami peuvent être établies en fonction des interactions sociales entre les utilisateurs et leurs amis (par exemple les recommandations, les tags, les commentaires). Nous proposons alors de prendre en compte l'influence sociale en fonction de la mesure de similarité utilisateur-ami afin d'estimer les préférences des utilisateurs. Nous avons mené une série d'expérimentations en utilisant un ensemble de donnes réelles issues de la plateforme de TV sociale Pinhole. Cet ensemble de donnes inclut les historiques d'accès des utilisateurs-vidéos et les réseaux sociaux des téléspectateurs. En outre, nous collectons des informations contextuelles pour chaque historique d'accès utilisateur-vidéo saisi par le système de formulaire plat. Le système de la plateforme capture et enregistre les dernières informations contextuelles auxquelles le spectateur est confronté en regardant une telle vidéo.Dans notre évaluation, nous adoptons le filtrage collaboratif axé sur le temps, le profil dépendant du temps et la factorisation de la matrice axe sur le réseau social comme tant des modèles de référence. L'évaluation a port sur deux tâches de recommandation. La première consiste sélectionner une liste trie de vidéos. La seconde est la tâche de prédiction de la cote vidéo. Nous avons évalué l'impact de chaque élément du contexte de visualisation dans la performance de prédiction. Nous testons ainsi la capacité de notre modèle résoudre le problème de manque de données et le problème de recommandation de démarrage froid du téléspectateur. Les résultats expérimentaux démontrent que notre modèle surpasse les approches de l'état de l'art fondes sur le facteur temps et sur les réseaux sociaux. Dans les tests des problèmes de manque de donnes et de démarrage froid, notre modèle renvoie des prédictions cohérentes différentes valeurs de manque de données
Champs de vecteurs quadratiques avec solutions univaluées en dimension 3 et supérieure by Daniel De La Rosa Gómez( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

It is a remarkable fact that among the known examples of quadratic semicomplete vector fields on C^3, it is always possible to find linear coordinates where the corresponding vector field has all-or "almost all"-coefficients in the real numbers. Indeed, the coefficients are very often integral. The space of quadratic vector fields on C^3, up to linear equivalence, is a complex 9-dimensional family. The main result of this thesis establishes that the degree of freedom in determining the coefficients of a semicomplete vector field (under very mild generic assumptions) is at most 3. In other words, there are 3 parameters from which all remaining parameters are determined. Moreover if these 3 parameters are real, then so is the vector field. We start by considering a generic quadratic vector field Z on C^n that is homogeneous and is not a multiple of the radial vector field. The first step in our work will be to construct a canonical form for the induced vector field X on CP(n-1). This canonical form will be invariant under the action of a specific group of symmetries. When n=3, we then push further our approach by studying the singularities not lying on the exceptional divisor but at the hyperplane at infinity Delta=CP(2). In this setting the dynamics of the foliation turn out to be quite simple while the singularities tend to be degenerated. The advantage is that we can deal with degenerated singularities with the technique of successive blow-ups. This leads to simple expressions for the eigenvalues directly in terms of the coefficients of X
Allocation de ressources efficace en énergie pour les bases de données dans le cloud by Chaopeng Guo( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Aujourd'hui, beaucoup de techniques de cloud computing et de bases de données dans le cloud sont adoptées dans l'industrie et le monde universitaire pour faire face à l'arrivée de l'ère du big data. Parallèlement, l'efficacité énergétique et les économies d'énergie deviennent une préoccupation majeure pour les centres de données, qui sont en charge de grands systèmes distribués et de bases de données dans le cloud. Toutefois, l'efficacité énergétique et l'accord de niveau de service des bases de données dans le cloud souffrent d'un problème d'allocation en ressources, de sur-allocation et de sous-allocation, c'est-à-dire qu'il y a un écart entre les ressources fournies et les ressources requises. Comme l'utilisation des bases de données dans le cloud est dynamique, les ressources du système devraient être fournies en fonction de sa charge de travail. Dans cette thèse, nous présentons nos recherches sur l'allocation de ressources efficace en énergie pour les bases de données dans le cloud, utilisant des techniques d'ajustement dynamique de la tension et de la fréquence (dynamic voltage and frequency scaling, DVFS for short) pour résoudre les problèmes d'allocation en ressources. De plus, une approche de migration est introduite pour améliorer davantage l'efficacité énergétique des systèmes de bases de données dans le cloud. Notre contribution peut se résumer comme suit : Dans un premier temps, le comportement de l'efficacité énergétique du système de base de données dans le cloud utilisant des techniques DVFS est analysé. En fonction des résultats du benchmark, deux approches de sélection des fréquences sont proposées. Ensuite, une approche de type problème borné est introduite pour la sélection de la fréquence. Avec cette approche, la consommation d'énergie et le coût de migration sont traités séparément. Un programme linéaire et un algorithme multi-phases sont proposés. Puisque l'espace de solution est très grand, les deux algorithmes sont comparés avec un petit cas, tandis que l'algorithme multi-phases est évalué avec des cas plus grands. En outre, une approche de type problème d'optimisation est introduite pour la sélection de la fréquence. Avec cette approche, la consommation d'énergie et le coût de migration sont traités comme un tout. Un algorithme génétique ainsi qu'un algorithme fondé sur la recherche arborescente Monte-Carlo sont proposés. Chacun des deux algorithmes présente des avantages et des inconvénients. Enfin, une approche de migration est introduite pour migrer les données en fonction des fréquences données et de leur disposition actuelle. Un plan de migration peut être obtenu en temps polynomial grâce à l'algorithme Constrictif MTHM proposé
Stationnarité forte sur des graphes discrets ou quantiques by Guillaume Copros( Book )

2 editions published in 2018 in French and held by 2 WorldCat member libraries worldwide

In this thesis, we are interested in the notion of strong stationary time, and in that, strongly connected, of strong stationary dual. These tools allow to study the convergence of ergodic processes, by determining a random time when the equilibrium is reached. The state space of the considered processes are discrete or continuous graphs. In the first part, we consider the discrete case, and we explicit a necessary and sufficient condition to the existence, for any initial distribution, of a finite strong stationary time. To do so, we construct explicitly a strong stationary dual, with values in the set of connected subsets of the graph, which evolves at each step by adding or removing some points at its border. Whenever this operation separates the dual set in several parts, in order not to disconnect it, one of these parts is chosen randomly, with a probability proportionnal to its weight relative to the invariant distribution. We also study the general behaviour of any dual process,2 and we give some other examples. In the second part, we deal with the continuous case, and the studied process is then a diffuion. We caracterize its invariant distribution, and we explicit an infinitesimal generator, which is expected to be that of a dual process. Nevertheless, this case turns out to be a little more involved that the discrete one. The dual process is thus constructed only for a brownian motion on a particular graph, as the unique solution of a martingale problem. Some leads are given to solve the case of diffusions on more general graphs, especially by using the convergence of a sequence of jump processes such as those presented in the first part
Théorie de la mesure dans la dynamique des sous-groupes de Diff^w(S1) by Anas Eskif( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

In this thesis we establish a topological rigidity theorem for a large class of subgroups of the group Diff (S1) consisting of (orientation-preserving) real analytic diffeomorphisms of the circle S1. Indeed, the primary object studied in this thesis are finitely generated, locally C 2-non-discrete subgroups of Diff (S1). In the first Chapter, we briefly recall several basic facts in the relation between measure theory and dynamical systems and recall the definitions and basic properties of hyperbolic spaces, hyperbolic groups and their boundaries. The second Chapter contains accurate definitions for most of the notions relevant for this thesis, revisits results related to Shcherbakov-Nakai theory in a form adapted to our needs and provides a description of the topological dynamics associated with a locally C 2-non-discrete subgroup of Diff (S1). The third Chapter is devoted to proving Theorem A "topological rigidity theorem". In the first section of this chapter, we prove Theorem A in various special cases, including the case where the group has a finite orbit as well as the case in which the group is solvable but non-abelian. It will then prove Theorem A in the case called "generic" and this will be the subject of the remainder of this chapter. In the second section of this chapter, we construct an explicit sequence of diffeomorphisms in G1 converging to the identity in the C 2-topology on the interval I C S1. In the last section of this chapter, we shall prove Theorem A modulo Proposition 3.3.3. In fact, Theorem 3.3.1 will be proved and this theorem provides a statement fairly stronger than what is strictly needed to derive Theorem A. The main statement in the fourth Chapter is Theorem 4.2.1. The proof of The- orem 4.2.1 is combined standard facts about hyperbolic groups with the existence of a measure µ on G1 giving rise to an absolutely continuous stationary measure. This theorem will lead to the proof of Theorem B. In the end, the Appendix contains a partial answer in the analytic category to a question raised in [De]. The appendix then ends with a summary of the role played by the regularity assumption (C) in this thesis
Computing approximations and generalized solutions using moments and positive polynomials by Tillmann Weisser( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

The generalized moment problem (GMP) is a linear optimization problem over spaces of measures. It allows to model many challenging mathematical problems. While in general it is impossible to solve the GMP, in the case where all data are polynomial and semialgebraic sets, one can define a hierarchy of semidefinite relaxations - the moment-sums-of-squares (moment-SOS) hierachy - which in principle allows to approximate the optimal value of the GMP to arbitrary precision. The work presented in this thesis addresses two facets concerning the GMP and the moment-SOS hierarchy: One facet is concerned with the scalability of relaxations for the GMP. The degree of the SOS weights in the moment-SOS hierarchy grows when augmenting the relaxation order. When the number of variables is not small, this leads quickly to semidefinite programs (SDPs) that are out of range for state of the art SDP solvers, unless one can use symmetries or some structured sparsity which is typically present in large scale applications. We provide a new certificate of positivity which (i) is able to exploit the structured sparsity and (ii) only involves SOS polynomials of fixed degree. From this, one can define a new hierarchy of SDP relaxations for the GMP which can take into account sparsity and at the same time prevents from explosion of the size of SDP variables related to the increasing degree of the SOS weights in the standard hierarchy. The second facet focusses on (i) modelling challenging problems as a particular instance of the GMP and (ii) solving these problems by applying the moment-SOS hierarchy. In particular we propose deterministic approximations of chance constraints a difficult problem as the associated set of feasible solutions is typically non-convex and sometimes not even connected. In our approach we replace this set by a (smaller) sub-level-set of a polynomial whose vector of coefficients is a by-product of the moment-SOS hierarchy when modeling the problem as an instance of the GMP. The quality of this inner approximation improves when increasing the degree of the SDP relaxation and asymptotic convergence is guaranteed. The procedure is illustrated by approximating the feasible set of an instance of the chance-constrained AC Optimal Power Flow problem (a nonlinear problem in the management of energy networks) which nowadays becomes more and more important as we rely increasingly on uncertain energy sources such as wind and solar power. Furthermore, we propose an extension of this framework to the case where the underlying distribution itself is uncertain and provide guarantees of convergence. Another application of the moment-SOS methodology discussed in this thesis consider measure valued solutions to optimal control problems. We show how this procedure can capture the limit behavior of an optimizing sequence of control and its corresponding sequence of trajectories. In particular we address the case of concentrations of control and discontinuities of the trajectory may occur simultaneously. In a final contribution, we compute measure valued solutions to scalar hyperbolic conservation laws, such as Burgers equation. It is known that this class of nonlinear partial differential equations has potentially discontinuous solutions which are difficult to approximate numerically with accuracy. Under some conditions the measure valued solution can be identified with the classical (weak) solution to the conservation law. In this case our moment-SOS approach provides an alternative numerical scheme to compute solutions which in contrast to existing methods, does not rely on discretization of the domain
Analyse de la qualité de code via une approche logique et application à la robotique by David Come( Book )

2 editions published in 2019 in French and held by 2 WorldCat member libraries worldwide

The quality of source code depends not only on its functional correctness but also on its readability, intelligibility and maintainability. This is currently an important problem in robotics where many open-source frameworks do not spread well in the industry because of uncertainty about the quality of the code. Code analysis and search tools are effective in improving these aspects. It is important that they let the user specify what she is looking for in order to be able to take into account the specific features of the project and of the domain. There exist two main representations of the source code : its Abstract Syntax Tree (AST) and the Control Flow Graph (CFG) of its functions. Existing specification mechanisms only use one of these representations, which is unfortunate because they offer complementaty information. The objective of this work is therefore to develop a method for verifying code compliance with user rules that can take benefit from both the AST and the CFG. The method is underpinned by a new logic we developed in this work : FO++ , which is a temporal extension of first-order logic. Relying on this logic has two advantages. First of all, it is independent of any programming language and has a formal semantics. Then, once instantiated for a given programming language, it can be used as a mean to formalize user provided properties. Finally, the study of its model-checking problem provides a mechanism for the automatic and correct verification of code compliance. These different concepts have been implemented in Pangolin, a tool for the C++ language. Given the code to be checked and a specification (which corresponds to an FO++ formula, written using Pangolin language), the tool indicates whether or not the code meets the specification. It also offers a summary of the evaluation in order to be able to find the code that violate the property as well as a certificate of the result correctness. Pangolin and FO++ have been applied to the field of robotics through the analysis of the quality of ROS packages and the formalization of a ROS-specific design-pattern. As a second and more general application to the development of programs in C++, we have formalized various good practice rules for this language. Finally, we have showed how it is possible to specify and verify rules that are closely related to a specific project by checking properties on the source code of Pangolin itself
Déformation des cycles saisonniers de variables climatiques by Alix Rigal( Book )

2 editions published in 2020 in French and held by 2 WorldCat member libraries worldwide

Climate normals are usually calculated as averages over a 30-year observational period. In the context of a changing climate, these normals, even re-evaluated frequently, are "lagging behind" the current climate. The primary objective of this thesis is the estimation of non- stationary normals, in order to acquire an unbiased reference of the present climate. A good property for such normals, which are considered at the daily timescale, is to possess a certain regularity, both on the seasonal component and the secular change. For this reason, normal estimation shall be based on smoothing spline techniques such as proposed by Azaïs et Ribes (2016). The proposed modeling, inspired by a "pattern scaling" assumption, enables the study of the seasonal drift due to climate change. Beyond the mean value (normals), climate considered at a given date and location can be characterized by its distribution of possible values. A natural extension of normal estimation, would be to estimate the entire distribution with regularity constraints on its shape. We thus propose to address this question in a regularized quantile regression framework. In that respect and for a given climate variable, we obtain a detailed description of climate, at a given localization, and of its annual cycle. Both of these aspects lead to a re-examination of the RKHS (Reproducing Kernel Hilbert Space) and quantile regression theories. The complexity of the considered models is equally considered for normals and distribution and is meticulously examined. Lastly, we propose to exploit the preceding results to revisit and improve the description of future and past changes in climate, for example via the use of climate analogues
Variants of acceptance specifications for modular system design by Guillaume Verdier( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

Software programs are taking a more and more important place in our lives. Some of these programs, like the control systems of power plants, aircraft, or medical devices for instance, are critical: a failure or malfunction could cause loss of human lives, damages to equipments, or environmental harm. Formal methods aim at offering means to design and verify such systems in order to guarantee that they will work as expected. As time passes, these systems grow in scope and size, yielding new challenges. It becomes necessary to develop these systems in a modular fashion to be able to distribute the implementation task to engineering teams. Moreover, being able to reuse some trustworthy parts of the systems and extend them to answer new needs in functionalities is increasingly required. As a consequence, formal methods also have to evolve in order to accommodate both the design and the verification of these larger, modular systems and thus address their scalability challenge. We promote an algebraic approach for the design of correct-by-construction systems. It defines a formalism to express high-level specifications of systems and allows to incrementally refine these specifications into more concrete ones while preserving their properties, until an implementation is reached. It also defines several operations allowing to assemble complex systems from simpler components, by merging several viewpoints of a specific system or composing several subsystems together, as well as decomposing a complex specification in order to reuse existing components and ease the implementation task. The specification formalism we use is based on modal specifications. In essence, a modal specification is an automaton with two kinds of transitions allowing to express mandatory and optional behaviors. Refining a modal specification amounts to deciding whether some optional parts should be removed or made mandatory. This thesis contains two main theoretical contributions, based on an extension of modal specifications called acceptance specifications. The first contribution is the identification of a subclass of acceptance specifications, called convex acceptance specifications, which allows to define much more efficient operations while maintaining a high level of expressiveness. The second contribution is the definition of a new formalism, called marked acceptance specifications, that allows to express some reachability properties. This could be used for example to ensure that a system is terminating or to express a liveness property for a reactive system. Usual operations are defined on this new formalism and guarantee the preservation of the reachability properties as well as independent implementability. This thesis also describes some more practical results. All the theoretical results on convex acceptance specifications have been proved using the Coq proof assistant. The tool MAccS has been developed to implement the formalisms and operations presented in this thesis. It allows to test them easily on some examples, as well as run some experimentations and benchmarks
moreShow More Titles
fewerShow Fewer Titles
Audience Level
Audience Level
  Kids General Special  
Audience level: 0.94 (from 0.93 for Airport st ... to 0.94 for Conception ...)

Alternative Names
École doctorale 475

École Doctorale de Mathématiques Informatique Télécommunications de Toulouse

École doctorale de Mathématiques (Toulouse)

École doctorale de Télécommunications (Toulouse)

École doctorale d'Informatique (Toulouse)

École Doctorale Mathématiques Informatique Télécommunications de Toulouse

ED 475

ED Mathématiques

ED Mathématiques Informatique Télécommunications

ED Mathématiques Informatique Télécommunications de Toulouse (MITT)



Institut National des Sciences Appliquées de Toulouse. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Institut National Polytechnique de Toulouse. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Institut Supérieur de l'Aéronautique et de l'Espace. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Paul Sabatier Toulouse 3. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Toulouse 1 Capitole. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Toulouse-Le-Mirail Toulouse 2. Mathématiques Informatique Télécommunications de Toulouse (MITT)

English (27)

French (14)