WorldCat Identities

École doctorale Mathématiques, informatique et télécommunications (Toulouse)

Overview
Works: 625 works in 943 publications in 2 languages and 945 library holdings
Roles: Other, Degree grantor, 996
Publication Timeline
.
Most widely held works by informatique et télécommunications (Toulouse) École doctorale Mathématiques
Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs by Amira Dkhil( Book )

3 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics
Segmentation endodontique sur des images scanner 3D : méthodes et validation by Jérôme Michetti( )

2 editions published in 2019 in French and held by 3 WorldCat member libraries worldwide

Dans les cabinets dentaires, la dévitalisation des dents est un traitement réalisé quotidiennement (6 millions de traitement par an en France). Une bonne connaissance de l'anatomie canalaire (intérieur de la dent ou endodonte) est un pré requis indispensable au succès d'un traitement endodontique. Pour faire face aux nombreuses variations anatomiques qui viennent compliquer cette thérapeutique, les chirurgiens-dentistes ne disposent essentiellement que de la radiographie intra-buccale deux dimensions (2D) laquelle ne permet pas la complète compréhension de cette anatomie 3D. Distorsion, compression de l'anatomie et superposition des structures avoisinantes perturbent la qualité de l'image n'autorisant pas une évaluation qualitative et quantitative précise de cette anatomie. Les appareils de tomographie volumique à faisceau conique (TVFC) présents dans les cabinets dentaires pourraient constituer une alternative en fournissant de petites reconstructions 3D de structures dento-maxillofaciales. Mais l'évaluation de la précision diagnostique des TVFC dentaires sur l'anatomie canalaire est nécessaire afin de pouvoir justifier leur indication pour les traitements endodontiques. En effet, le développement d'une méthode de segmentation endodontique sur des images de TVFC n'est pas aisée du fait de la finesse de cette anatomie canalaire par rapport à la résolution du système d'imagerie, de la qualité d'image et de la difficulté à valider les résultats obtenus. Afin d'aider la thérapeutique endodontique, les travaux réalisés dans cette thèse ont pour but de fournir des outils informatiques et des méthodes utiles à l'obtention d'une évaluation quantitative du réseau canalaire radiculaire. Après une présentation de l'anatomie endodontique et des principes du traitement canalaire, nous avons décrits les caractéristiques techniques des appareils de tomographie volumique à faisceau conique et les outils existants pour évaluer de manière quantitative cette anatomie sur des images issues de micro-scanners haute-résolution dédiés à la recherche. Nous avons ensuite proposé une méthode pour évaluer les résultats de segmentation endodontique en TVFC par comparaison avec les données micro-scanners. Afin de valider cette méthode et d'évaluer la faisabilité de segmenter l'endodonte en TVFC, nous avons testé un seuillage local adaptatif développé pour répondre à notre problématique sur des dents extraites. Pour permettre la validation des résultats de segmentation sur des images de qualité clinique (dégradée par les structures anatomiques autour des dents dans et hors champ de vue), nous avons élaboré et validé un fantôme parodontal réalisé autour de dents extraites et permettant de préserver la comparaison avec la vérité terrain fournie par les micro-scanners. En fin de thèse, nous avons évoqué les perspectives basées sur l'apprentissage profond et les premières études réalisées pour compenser la réduction de la qualité d'image afin de pouvoir tester et valider la segmentation endodontique en condition clinique
Conception et évaluation des systèmes interactifs mixtes selon une approche centrée utilisateurs by Syrine Charfi( Book )

2 editions published in 2009 in French and held by 3 WorldCat member libraries worldwide

Mixed Interactive Systems (MIS) encompass mixed and augmented reality, augmented virtuality, and tangible interfaces systems. MIS require heterogeneous objects, such as real world physical object and specific electronic devices. These particular aspects lead to different modeling approaches from classical user interfaces. Existing models neither integrate MIS in the global user activity, nor take into account the dynamics of mixed interactive situations. Besides, MIS require different usability approaches since they have an impact on the physical environment and user habits. However, existing ergonomic knowledge and methods don't totally cover MIS specific aspects. In this work, we propose, firstly, to extract usability recommendations (U.R.) dedicated to MIS, resulting from a systematic review of the literature. These U.R. represent a tool that leads to make ergonomics considerations during the design. Secondly, we use task models to integrate MIS interaction in the user activity, and MIS interaction models to describe their complexity
Optimisation des trajectoires avion dans l'Atlantique Nord by Olga Rodionova( Book )

2 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

This thesis investigates the ways to improve the air traffic system in the highly congested North Atlantic oceanic airspace (NAT). First, we consider the current system, where aircraft follow predefined NAT tracks. We favor the re-routings between tracks, decreasing congestion in pre-oceanic airspace, and apply stochastic methods of optimization to find a conflict-free flight configuration with reduced separation between aircraft. Second, we simulate trajectory prediction by Wind Networking (WN). While the main source of time prediction errors is the uncertainty in wind forecast, WN permits aircraft to exchange measured winds and adjust their predictions using this recent and accurate information. Third, we study the impact of introducing the free flight concept in NAT. We apply a stochastic method of optimization on data provided by NASA consisting of NAT flights with wind optimal trajectories. The aim is to reduce the number of conflicts on the strategic level, while keeping the trajectories close to the optimal routes. Our computational experiments show that the air traffic situation in NAT can be improved in several different ways, considering new technologies and new trajectory planning concepts
Airport strategic planning under uncertainty : fuzzy dual dynamic programming approach by Elena Mihaela Capitanul( Book )

2 editions published in 2016 in English and held by 3 WorldCat member libraries worldwide

Les aéroports sont des connecteurs critiques dans le système opérationnel de transport aérien. Afin de répondre à leurs obligations opérationnelles, économiques et sociales dans un environnement très volatil, ont besoin d'aéroports à embrasser le changement plutôt que d'y résister. Comme toute autre industrie, font face à des aéroports un large éventail de risques, dont certains spécifiques au transport aérien, les autres ayant seulement une influence indirecte mais assez puissant pour perturber les activités aéroportuaires. La planification longue terme de l'aéroport est devenue une question complexe en raison de la croissance constante de la demande de trafic aérien. Une nouvelle dimension de complexité est apparue lorsque l'incertitude a commencé à avoir un impact plus en plus perturbatrice, et significativement coûteuse sur le développement des infrastructures aéroportuaires. Historiquement, la capacité des outils traditionnels pour atténuer le risque et l'incertitude ont avérée inefficace. D'innombrables événements imprévus comme les attaques terroristes, la récession économique, les catastrophes naturelles, ont eu un impact dramatique sur les niveaux de trafic, certains avec une portée mondiale. Pour ce type hautement improbable d'événements peut être ajouté les progrès technologiques, de nouvelles modèles d'affaires des compagnies aériennes et aéroports, les changements de politique et de réglementation, préoccupation croissante pour l'impact environnemental. Dans ce contexte, la thèse met en avant une approche novatrice pour aborder l'évaluation des risques et de l'atténuation dans l'incertitude dans les projets de développement des infrastructures aéroportuaires à long terme. La thèse se développe sur le formalisme récemment développée de nombres flous comme un outil clé pour aborder l'incertitude. Après un examen approfondi de l'industrie aéroportuaire dans le contexte des environnements incertains, nombres double flous et double floue arithmétiques sont introduits. Comme le projet de développement des infrastructures aéroportuaires est un autre cas de problème de prise de décision en plusieurs étapes, la programmation dynamique est prise en compte afin d'optimiser le processus séquentiel de prise de décision. L'originalité de l'approche réside dans le fait que l'ensemble du processus sera floue et la composante double floue de la programmation dynamique sera introduite. Pour valider notre méthode, une étude de cas sera développée
Théorie de la mesure dans la dynamique des sous-groupes de Diff^w(S1) by Anas Eskif( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

In this thesis we establish a topological rigidity theorem for a large class of subgroups of the group Diff (S1) consisting of (orientation-preserving) real analytic diffeomorphisms of the circle S1. Indeed, the primary object studied in this thesis are finitely generated, locally C 2-non-discrete subgroups of Diff (S1). In the first Chapter, we briefly recall several basic facts in the relation between measure theory and dynamical systems and recall the definitions and basic properties of hyperbolic spaces, hyperbolic groups and their boundaries. The second Chapter contains accurate definitions for most of the notions relevant for this thesis, revisits results related to Shcherbakov-Nakai theory in a form adapted to our needs and provides a description of the topological dynamics associated with a locally C 2-non-discrete subgroup of Diff (S1). The third Chapter is devoted to proving Theorem A "topological rigidity theorem". In the first section of this chapter, we prove Theorem A in various special cases, including the case where the group has a finite orbit as well as the case in which the group is solvable but non-abelian. It will then prove Theorem A in the case called "generic" and this will be the subject of the remainder of this chapter. In the second section of this chapter, we construct an explicit sequence of diffeomorphisms in G1 converging to the identity in the C 2-topology on the interval I C S1. In the last section of this chapter, we shall prove Theorem A modulo Proposition 3.3.3. In fact, Theorem 3.3.1 will be proved and this theorem provides a statement fairly stronger than what is strictly needed to derive Theorem A. The main statement in the fourth Chapter is Theorem 4.2.1. The proof of The- orem 4.2.1 is combined standard facts about hyperbolic groups with the existence of a measure µ on G1 giving rise to an absolutely continuous stationary measure. This theorem will lead to the proof of Theorem B. In the end, the Appendix contains a partial answer in the analytic category to a question raised in [De]. The appendix then ends with a summary of the role played by the regularity assumption (C) in this thesis
Allocation de ressources efficace en énergie pour les bases de données dans le cloud by Chaopeng Guo( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Aujourd'hui, beaucoup de techniques de cloud computing et de bases de données dans le cloud sont adoptées dans l'industrie et le monde universitaire pour faire face à l'arrivée de l'ère du big data. Parallèlement, l'efficacité énergétique et les économies d'énergie deviennent une préoccupation majeure pour les centres de données, qui sont en charge de grands systèmes distribués et de bases de données dans le cloud. Toutefois, l'efficacité énergétique et l'accord de niveau de service des bases de données dans le cloud souffrent d'un problème d'allocation en ressources, de sur-allocation et de sous-allocation, c'est-à-dire qu'il y a un écart entre les ressources fournies et les ressources requises. Comme l'utilisation des bases de données dans le cloud est dynamique, les ressources du système devraient être fournies en fonction de sa charge de travail. Dans cette thèse, nous présentons nos recherches sur l'allocation de ressources efficace en énergie pour les bases de données dans le cloud, utilisant des techniques d'ajustement dynamique de la tension et de la fréquence (dynamic voltage and frequency scaling, DVFS for short) pour résoudre les problèmes d'allocation en ressources. De plus, une approche de migration est introduite pour améliorer davantage l'efficacité énergétique des systèmes de bases de données dans le cloud. Notre contribution peut se résumer comme suit : Dans un premier temps, le comportement de l'efficacité énergétique du système de base de données dans le cloud utilisant des techniques DVFS est analysé. En fonction des résultats du benchmark, deux approches de sélection des fréquences sont proposées. Ensuite, une approche de type problème borné est introduite pour la sélection de la fréquence. Avec cette approche, la consommation d'énergie et le coût de migration sont traités séparément. Un programme linéaire et un algorithme multi-phases sont proposés. Puisque l'espace de solution est très grand, les deux algorithmes sont comparés avec un petit cas, tandis que l'algorithme multi-phases est évalué avec des cas plus grands. En outre, une approche de type problème d'optimisation est introduite pour la sélection de la fréquence. Avec cette approche, la consommation d'énergie et le coût de migration sont traités comme un tout. Un algorithme génétique ainsi qu'un algorithme fondé sur la recherche arborescente Monte-Carlo sont proposés. Chacun des deux algorithmes présente des avantages et des inconvénients. Enfin, une approche de migration est introduite pour migrer les données en fonction des fréquences données et de leur disposition actuelle. Un plan de migration peut être obtenu en temps polynomial grâce à l'algorithme Constrictif MTHM proposé
Analyse de la qualité de code via une approche logique et application à la robotique by David Come( Book )

2 editions published in 2019 in French and held by 2 WorldCat member libraries worldwide

The quality of source code depends not only on its functional correctness but also on its readability, intelligibility and maintainability. This is currently an important problem in robotics where many open-source frameworks do not spread well in the industry because of uncertainty about the quality of the code. Code analysis and search tools are effective in improving these aspects. It is important that they let the user specify what she is looking for in order to be able to take into account the specific features of the project and of the domain. There exist two main representations of the source code : its Abstract Syntax Tree (AST) and the Control Flow Graph (CFG) of its functions. Existing specification mechanisms only use one of these representations, which is unfortunate because they offer complementaty information. The objective of this work is therefore to develop a method for verifying code compliance with user rules that can take benefit from both the AST and the CFG. The method is underpinned by a new logic we developed in this work : FO++ , which is a temporal extension of first-order logic. Relying on this logic has two advantages. First of all, it is independent of any programming language and has a formal semantics. Then, once instantiated for a given programming language, it can be used as a mean to formalize user provided properties. Finally, the study of its model-checking problem provides a mechanism for the automatic and correct verification of code compliance. These different concepts have been implemented in Pangolin, a tool for the C++ language. Given the code to be checked and a specification (which corresponds to an FO++ formula, written using Pangolin language), the tool indicates whether or not the code meets the specification. It also offers a summary of the evaluation in order to be able to find the code that violate the property as well as a certificate of the result correctness. Pangolin and FO++ have been applied to the field of robotics through the analysis of the quality of ROS packages and the formalization of a ROS-specific design-pattern. As a second and more general application to the development of programs in C++, we have formalized various good practice rules for this language. Finally, we have showed how it is possible to specify and verify rules that are closely related to a specific project by checking properties on the source code of Pangolin itself
Intégration holistique et entreposage automatique des données ouvertes by Imen Megdiche Bousarsar( Book )

2 editions published in 2015 in French and held by 2 WorldCat member libraries worldwide

Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations
Algorithmes génétiques parallèles pour résoudre des problèmes d'ordonnancement de tâches dynamiques de manière efficace en prenant en compte l'énergie by Jia Luo( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

Du fait de nouvelles législations gouvernementales et de la prise de conscience environnementale des consommateurs ainsi que de la hausse du coût de l'énergie, l'efficacité énergétique est devenue un paramètre essentiel des processus industriels ces dernières années. La plupart des avancées en ce qui concerne les économies d'énergie dans les problèmes d'ordonnancement se sont focalisées sur l'ordonnancement statique. Mais en fait, ces problèmes sont dynamiques dans le monde réel. Dans cette thèse, deux problèmes d'ordonnancement dynamique efficace énergiquement sont étudiés. Le Modèle I analyse le retard total et la durée de production avec une limite de puissance tout en tenant compte d'un flux dynamique de nouvelles tâches. Un rééchelonnement complet périodique est adopté. Le Modèle II vise à réduire au minimum le retard total et la consommation d'énergie totale dans le traitement des tâches en tenant compte de nouvelles tâches prioritaires. Une approche basée sur la réparation de la planification des événements est utilisée pour traiter la mise à jour de l'ordonnancement. Comme un nouveau plan d'ordonnancement adéquat doit être obtenu dans un temps de réponse court dans un environnement dynamique, deux Algorithmes Génétiques parallèles (AG) sont proposés pour résoudre ces deux modèles. L'algorithme parallèle AG I est une méthode hybride basée sur CUDA consistant en un modèle AG insulaire au niveau supérieur et un modèle AG fin, au niveau inférieur. Il combine les métriques de deux couches hiérarchiques et tire pleinement parti des capacités de calcul de la plateforme CUDA. L'algorithme AG II est conçu avec une double hétérogénéité qui résulte de l'utilisation d'un AG cellulaire parallèle et d'un pseudo AG parallèle. Avec ces deux structures différentes, les ilots augmentent la diversité de la population et peuvent être simultanément parallélisés sur des GPU et un processeur multi-cœur. Enfin, des solutions numériques sont présentées et analysées ; elles montrent que nos approches peuvent non seulement résoudre les problèmes de manière flexible, mais également obtenir des solutions avantageuses et réduire les temps de calcul
Computing approximations and generalized solutions using moments and positive polynomials by Tillmann Weisser( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

Le problème généralisé des moments (PGM) est un problème d'optimisation linéaire sur des espaces de mesures. Il permet de modéliser simplement un grand nombre d'applications. En toute généralité il est impossible à résoudre mais si ses données sont des polynômes et des ensembles semi-algébriques alors on peut définir une hiérarchie de relaxations semidéfinies (SDP) - la hiérarchie moments-sommes-de-carrés (moments-SOS) - qui permet en principe d'approcher la valeur optimale avec une précision arbitraire. Le travail contenu dans cette thèse adresse deux facettes concernants le PGM et la hiérarchie moments-SOS: Une première facette concerne l'évolution des relaxations SDP pour le PGM. Le degré des poids SOS dans la hiérarchie moments-SOS augmente avec l'ordre de relaxation. Lorsque le nombre de variables n'est pas modeste, on obtient rapidement des programmes SDP de taille trop grande pour les logiciels de programmation SDP actuels, sauf si l'on peut utiliser des symétries ou une parcimonie structurée souvent présente dans beaucoup d'applications de grande taille. On présente donc un nouveau certificat de positivité sur un compact semi-algébrique qui (i) exploite la parcimonie présente dans sa description, et (ii) dont les polynômes SOS ont un degré borné à l'avance. Grâce à ce nouveau certificat on peut définir une nouvelle hiérarchie de relaxations SDP pour le PGM qui exploite la parcimonie et évite l'explosion de la taille des matrices semidéfinies positives liée au degré des poids SOS dans la hiérarchie standard. Une deuxième facette concerne (i) la modélisation de nouvelles applications comme une instance particulière du PGM, et (ii) l'application de la méthodologie moments-SOS pour leur résolution. En particulier on propose des approximations déterministes de contraintes probabilistes, un problème difficile car le domaine des solutions admissibles associées est souvent non-convexe et même parfois non connecté. Dans notre approche moments-SOS le domaine admissible est remplacé par un ensemble plus petit qui est le sous-niveau d'un polynôme dont le vecteur des coefficients est une solution optimale d'un certain SDP. La qualité de l'approximation (interne) croît avec le degré du polynôme et la taille du SDP. On illustre cette approche dans le problème du calcul du flux de puissance optimal dans les réseaux d'énergie, une application stratégique où la prise en compte des contraintes probabilistes devient de plus en plus cruciale (e.g., pour modéliser l'incertitude liée á l'énergie éolienne et solaire). En outre on propose une extension des cette procedure qui est robuste à l'incertitude sur la distribution sous-jacente. Des garanties de convergence sont fournies. Une deuxième contribution concerne l'application de la méthodologie moments-SOS pour l'approximation de solutions généralisés en commande optimale. Elle permet de capturer le comportement limite d'une suite minimisante de commandes et de la suite de trajectoires associée. On peut traiter ainsi le cas de phénomènes simultanés de concentrations de la commande et de discontinuités de la trajectoire. Une troisième contribution concerne le calcul de solutions mesures pour les lois de conservation hyperboliques scalaires dont l'exemple typique est l'équation de Burgers. Cette classe d'EDP non linéaire peut avoir des solutions discontinues difficiles à approximer numériquement avec précision. Sous certaines hypothèses, la solution mesurepeut être identifiée avec la solution classique (faible) à la loi de conservation. Notre approche moment-SOS fournit alors une méthode alternative pour approcher des solutions qui contrairement aux méthodes existantes évite une discrétisation du domaine
Déformation des cycles saisonniers de variables climatiques by Alix Rigal( Book )

2 editions published in 2020 in French and held by 2 WorldCat member libraries worldwide

Les normales climatiques sont habituellement calculées comme des moyennes sur une période observée de 30 ans. Dans un contexte de changement climatique, ces normales, même ré- évaluées régulièrement, sont "en retard" sur le climat présent. Le premier objectif de ce travail de thèse est d'estimer des normales climatiques non-stationnaires, dans le but de disposer d'une référence non-biaisée pour le climat présent. Une bonne propriété pour de telles normales, considérées au pas de temps quotidien, est de présenter une certaine régularité, à la fois en terme de cycle annuel et vis-à-vis du changement climatique. Pour cette raison, l'estimation de ces normales sera basée sur des techniques de lissage spline telles que proposées dans Azaïs et Ribes (2016). La modélisation proposée, inspirée d'une hypothèse de "pattern scaling", permettra l'étude de la dérive saisonnière due au changement climatique. Au-delà de la seule valeur moyenne (normale), le climat - considéré à un site et à une date donnés - se caractérise par une distribution de valeurs possibles. Un prolongement naturel de l'estimation de normales consiste à estimer l'ensemble de cette distribution, avec une contrainte de régularité sur la forme de celle-ci. Il s'agit alors de proposer une forme de régression quantile régularisée. On obtient ainsi, pour un paramètre donné, une description fine du climat en un site donné, et de son cycle annuel. Ces deux aspects, nous amènent à ré-examiner la théorie des RKHS (Espace de Hilbert à noyau reproduisant) ainsi que celle de la régression quantile. La complexité des modèles considérés, autant dans le cas des normales que des distributions, fait l'objet d'un examen minutieux.?Enfin, nous proposons d'utiliser ces résultats pour revisiter et améliorer la description des changements climatiques passés et futurs, par exemple via l'utilisation d'analogues climatiques
Géométrie birationnelle : classique et dérivée by Sara Durighetto( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

In the field of algebraic geometry, the study of birational transformations and their properties plays a primary role. In this, there are two different approach: the classical one due to the Italian school who focuses on the Cremona group and a modern one which utilizes instruments like derived categories and semiorthogonal decompositions. About the Cremona group, that is the group of birational self- morphisms of Pn, we do not know much in general and we focus on the complex case. We know a set of generators only in dimension n = 2. Moreover, we do not have a classification of curves and linear systems in P2 up to Cremona transformations. Among the known results there are: irreducible curves and curves with two irreducible components. In this thesis we approach tha case of a configuration of lines in the projective plane. The last theorem lists the known contractible configurations. From a categorical point of view, the semiorthogonal decompositions of the derived category of a variety provide some useful invariants in the study of the variety. Following the work of Clemens-Griffiths about the complex cubic threefold, we want to characterize the obstructions to the rationality of a variety X of dimension n. The idea is to collect the component of a semiorthogonal decomposition which are not equivalent to the derived category of a variety of dimension at least n - 1. In this way we defined the so called Griffiths-Kuznetsov component of X. In this thesis we study the case of surfaces on an arbitrary field, we define that component and show that it is a birational invariant. It appears clearly that the Griffiths-Kuznetsov component vanishes only if the surface is rational
Méthodes de séparation aveugle de sources et application à l'imagerie hyperspectrale en astrophysique by Axel Boulais( Book )

2 editions published in 2017 in French and held by 2 WorldCat member libraries worldwide

Ces travaux de thèse concernent le développement de nouvelles méthodes de séparation aveugle de mélanges linéaires instantanés pour des applications à des données hyperspectrales en astrophysique. Nous avons proposé trois approches pour effectuer la séparation des données. Une première contribution est fondée sur l'hybridation de deux méthodes existantes de séparation aveugle de source (SAS) : la méthode SpaceCORR nécessitant une hypothèse de parcimonie et une méthode de factorisation en matrices non négatives (NMF). Nous montrons que l'utilisation des résultats de SpaceCORR pour initialiser la NMF permet d'améliorer les performances des méthodes utilisées seules. Nous avons ensuite proposé une première méthode originale permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode MASS (pour \textit{Maximum Angle Source Separation}) est une méthode géométrique basée sur l'extraction de pixels mono-sources pour réaliser la séparation des données. Nous avons également étudié l'hybridation de MASS avec la NMF. Enfin, nous avons proposé une seconde approche permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode originale SIBIS (pour \textit{Subspace-Intersection Blind Identification and Separation}) est une méthode géométrique basée sur l'identification de l'intersection de sous-espaces engendrés par des régions de l'image hyperspectrale. Ces intersections permettent, sous une hypothèse faible de parcimonie, de réaliser la séparation des données. L'ensemble des approches proposées dans ces travaux ont été validées par des tests sur données simulées puis appliquées sur données réelles. Les résultats obtenus sur ces données sont très encourageants et sont comparés à ceux obtenus par des méthodes de la littérature
Stationnarité forte sur des graphes discrets ou quantiques by Guillaume Copros( Book )

2 editions published in 2018 in French and held by 2 WorldCat member libraries worldwide

Dans cette thèse, on s'intéresse à la notion de temps fort de stationnarité et à celle, étroitement liée, de dual de stationnarité forte. Ces outils permettent d'étu- dier la convergence de processus ergodiques, en déterminant un instant aléatoire où l'équilibre est atteint. Les espaces d'état des processus considérés ici sont des graphes continus ou discrets. Dans la première partie, on considère le cas discret, et on dégage une condition nécessaire et suffisante à l'existence, pour n'importe quelle loi initiale, d'un temps fort de stationnarité fini. Pour cela, on construit explicitement un dual de station- narité forte, à valeurs dans l'ensemble des parties connexes du graphe, qui évolue à chaque étape en ajoutant ou en enlevant des points de sa frontière. Lorsque cette opération sépare l'ensemble dual en plusieurs parties, afin de ne pas le déconnecter, une de ces parties est choisie au hasard, avec une probabilité proportionnelle à son poids par la mesure invariante. On s'intéresse également au comportement général d'un processus dual, et on donne quelques exemples différents de celui construit précédemment. Dans la deuxième partie, on traite le cas continu, et le processus étudié est alors une diffusion. On caractérise notamment sa mesure invariante, et on explicite un générateur infinitésimal qui devrait être celui d'un processus dual. Néanmoins, ce cas s'avère plus compliqué que le cas discret. Le processus dual n'est donc construit que pour un mouvement brownien sur un graphe particulier, comme l'unique so- lution d'un problème de martingale. Des pistes sont présentées pour traiter des diffusions sur des graphes plus généraux, notamment en utilisant la convergence d'une suite de processus de saut tels que ceux présentés dans la première partie
Sur le pouvoir expressif des structures applicatives et monadiques indexées by Ian Malakhovski( Book )

2 editions published in 2019 in French and held by 2 WorldCat member libraries worldwide

It is well-known that very simple theoretic constructs such as Either (type-theoretic equivalent of the logical "or" operator), State (composable state transformers), Applicative (generalized function application), and Monad (generalized sequential program composition) structures (as they are named in Haskell) cover a huge chunk of what is usually needed to elegantly express most computational idioms used in conventional programs. However, it is conventionally argued that there are several classes of commonly used idioms that do not fit well within those structures, the most notable examples being transformations between trees (data types, which are usually argued to require ether generalized pattern matching or heavy metaprogramming infrastructure) and exception handling (which are usually argued to require special language and run-time support). This work aims to show that many of those idioms can, in fact, be expressed by reusing those well-known structures with minor (if any) modifications. In other words, the purpose of this work is to apply the KISS (Keep It Stupid Simple) and/or Occam's razor principles to algebraic structures used to solve common programming problems. Technically speaking, this work aims to show that natural generalizations of Applicative and Monad type classes of Haskell combined with the ability to make Cartesian products of them produce a very simple common framework for expressing many practically useful things, some of the instances of which are very convenient novel ways to express common programming ideas, while others are usually classified as effect systems. On that latter point, if one is to generalize the presented instances into an approach to design of effect systems in general, then the overall structure of such an approach can be thought of as being an almost syntactic framework which allows different effect systems adhering to the general structure of the "marriage" framework to be expressed on top of. (Though, this work does not go into too much into the latter, since this work is mainly motivated by examples that can be immediately applied to Haskell practice.) Note, however, that, after the fact, these technical observation are completely unsurprising: Applicative and Monad are generalizations of functional and linear program compositions respectively, so, naturally, Cartesian products of these two structures ought to cover a lot of what programs usually do
Espaces de modules analytiques de fonctions non quasi-homogènes by Jinan Loubani( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

Soit f un germe de fonction holomorphe dans deux variables qui s'annule à l'origine. L'ensemble zéro de cette fonction définit un germe de courbe analytique. Bien que la classification topologique d'un tel germe est bien connue depuis les travaux de Zariski, la classification analytique est encore largement ouverte. En 2012, Hefez et Hernandes ont résolu le cas irréductible et ont annoncé le cas de deux components. En 2015, Genzmer et Paul ont résolu le cas des fonctions topologiquement quasi-homogènes. L'objectif principal de cette thèse est d'étudier la première classe topologique de fonctions non quasi-homogènes. Dans le deuxième chapitre, nous décrivons l'espace local des modules des feuillages de cette classe et nous donnons une famille universelle de formes normales analytiques. Dans le même chapitre, nous prouvons l'unicité globale de ces formes normales. Dans le troisième chapitre, nous étudions l'espace des modules de courbes, qui est l'espace des modules des feuillages à une équivalence analytique des séparatrices associées près. En particulier, nous présentons un algorithme pour calculer sa dimension générique. Le quatrième chapitre présente une autre famille universelle de formes normales analytiques, qui est globalement unique aussi. En effet, il n'ya pas de modèle canonique pour la distribution de l'ensemble des paramètres sur les branches. Ainsi, avec cette famille, nous pouvons voir que la famille précédente n'est pas la seule et qu'il est possible de construire des formes normales en considérant une autre distribution des paramètres. Enfin, pour la globalisation, nous discutons dans le cinquième chapitre une stratégie basée sur la théorie géométrique des invariants et nous expliquons pourquoi elle ne fonctionne pas jusqu'à présent
Jointly integrating current context and social influence for improving recommendation by Meriam Bambia( Book )

2 editions published in 2017 in English and held by 2 WorldCat member libraries worldwide

La diversité des contenus recommandation et la variation des contextes des utilisateurs rendent la prédiction en temps réel des préférences des utilisateurs de plus en plus difficile mettre en place. Toutefois, la plupart des approches existantes n'utilisent que le temps et l'emplacement actuels séparément et ignorent d'autres informations contextuelles sur lesquelles dépendent incontestablement les préférences des utilisateurs (par exemple, la météo, l'occasion). En outre, ils ne parviennent pas considérer conjointement ces informations contextuelles avec les interactions sociales entre les utilisateurs. D'autre part, la résolution de problèmes classiques de recommandation (par exemple, aucun programme de télévision vu par un nouvel utilisateur connu sous le nom du problème de démarrage froid et pas assez d'items co-évalués par d'autres utilisateurs ayant des préférences similaires, connu sous le nom du problème de manque de donnes) est d'importance significative puisque sont attaqués par plusieurs travaux. Dans notre travail de thèse, nous proposons un modèle probabiliste qui permet exploiter conjointement les informations contextuelles actuelles et l'influence sociale afin d'améliorer la recommandation des items. En particulier, le modèle probabiliste vise prédire la pertinence de contenu pour un utilisateur en fonction de son contexte actuel et de son influence sociale. Nous avons considérer plusieurs éléments du contexte actuel des utilisateurs tels que l'occasion, le jour de la semaine, la localisation et la météo. Nous avons utilisé la technique de lissage Laplace afin d'éviter les fortes probabilités. D'autre part, nous supposons que l'information provenant des relations sociales a une influence potentielle sur les préférences des utilisateurs. Ainsi, nous supposons que l'influence sociale dépend non seulement des évaluations des amis mais aussi de la similarité sociale entre les utilisateurs. Les similarités sociales utilisateur-ami peuvent être établies en fonction des interactions sociales entre les utilisateurs et leurs amis (par exemple les recommandations, les tags, les commentaires). Nous proposons alors de prendre en compte l'influence sociale en fonction de la mesure de similarité utilisateur-ami afin d'estimer les préférences des utilisateurs. Nous avons mené une série d'expérimentations en utilisant un ensemble de donnes réelles issues de la plateforme de TV sociale Pinhole. Cet ensemble de donnes inclut les historiques d'accès des utilisateurs-vidéos et les réseaux sociaux des téléspectateurs. En outre, nous collectons des informations contextuelles pour chaque historique d'accès utilisateur-vidéo saisi par le système de formulaire plat. Le système de la plateforme capture et enregistre les dernières informations contextuelles auxquelles le spectateur est confronté en regardant une telle vidéo.Dans notre évaluation, nous adoptons le filtrage collaboratif axé sur le temps, le profil dépendant du temps et la factorisation de la matrice axe sur le réseau social comme tant des modèles de référence. L'évaluation a port sur deux tâches de recommandation. La première consiste sélectionner une liste trie de vidéos. La seconde est la tâche de prédiction de la cote vidéo. Nous avons évalué l'impact de chaque élément du contexte de visualisation dans la performance de prédiction. Nous testons ainsi la capacité de notre modèle résoudre le problème de manque de données et le problème de recommandation de démarrage froid du téléspectateur. Les résultats expérimentaux démontrent que notre modèle surpasse les approches de l'état de l'art fondes sur le facteur temps et sur les réseaux sociaux. Dans les tests des problèmes de manque de donnes et de démarrage froid, notre modèle renvoie des prédictions cohérentes différentes valeurs de manque de données
Variants of acceptance specifications for modular system design by Guillaume Verdier( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

Software programs are taking a more and more important place in our lives. Some of these programs, like the control systems of power plants, aircraft, or medical devices for instance, are critical: a failure or malfunction could cause loss of human lives, damages to equipments, or environmental harm. Formal methods aim at offering means to design and verify such systems in order to guarantee that they will work as expected. As time passes, these systems grow in scope and size, yielding new challenges. It becomes necessary to develop these systems in a modular fashion to be able to distribute the implementation task to engineering teams. Moreover, being able to reuse some trustworthy parts of the systems and extend them to answer new needs in functionalities is increasingly required. As a consequence, formal methods also have to evolve in order to accommodate both the design and the verification of these larger, modular systems and thus address their scalability challenge. We promote an algebraic approach for the design of correct-by-construction systems. It defines a formalism to express high-level specifications of systems and allows to incrementally refine these specifications into more concrete ones while preserving their properties, until an implementation is reached. It also defines several operations allowing to assemble complex systems from simpler components, by merging several viewpoints of a specific system or composing several subsystems together, as well as decomposing a complex specification in order to reuse existing components and ease the implementation task. The specification formalism we use is based on modal specifications. In essence, a modal specification is an automaton with two kinds of transitions allowing to express mandatory and optional behaviors. Refining a modal specification amounts to deciding whether some optional parts should be removed or made mandatory. This thesis contains two main theoretical contributions, based on an extension of modal specifications called acceptance specifications. The first contribution is the identification of a subclass of acceptance specifications, called convex acceptance specifications, which allows to define much more efficient operations while maintaining a high level of expressiveness. The second contribution is the definition of a new formalism, called marked acceptance specifications, that allows to express some reachability properties. This could be used for example to ensure that a system is terminating or to express a liveness property for a reactive system. Usual operations are defined on this new formalism and guarantee the preservation of the reachability properties as well as independent implementability. This thesis also describes some more practical results. All the theoretical results on convex acceptance specifications have been proved using the Coq proof assistant. The tool MAccS has been developed to implement the formalisms and operations presented in this thesis. It allows to test them easily on some examples, as well as run some experimentations and benchmarks
Energy management in content distribution network servers by Saif Ul Islam( Book )

2 editions published in 2015 in English and held by 2 WorldCat member libraries worldwide

Les infrastructures Internet et l'installation d'appareils très gourmands en énergie (en raison de l'explosion du nombre d'internautes et de la concurrence entre les services efficaces offerts par Internet) se développent de manière exponentielle. Cela entraîne une augmentation importante de la consommation d'énergie. La gestion de l'énergie dans les systèmes de distribution de contenus à grande échelle joue un rôle déterminant dans la diminution de l'empreinte énergétique globale de l'industrie des TIC (Technologies de l'information et de la communication). Elle permet également de diminuer les coûts énergétiques d'un produit ou d'un service. Les CDN (Content Delivery Networks) sont parmi les systèmes de distribution à grande échelle les plus populaires, dans lesquels les requêtes des clients sont transférées vers des serveurs et traitées par des serveurs proxy ou le serveur d'origine, selon la disponibilité des contenus et la politique de redirection des CDN. Par conséquent, notre objectif principal est de proposer et de développer des mécanismes basés sur la simulation afin de concevoir des politiques de redirection des CDN. Ces politiques prendront la décision dynamique de réduire la consommation d'énergie des CDN. Enfin, nous analyserons son impact sur l'expérience utilisateur. Nous commencerons par une modélisation de l'utilisation des serveurs proxy et un modèle de consommation d'énergie des serveurs proxy basé sur leur utilisation. Nous ciblerons les politiques de redirection des CDN en proposant et en développant des politiques d'équilibre et de déséquilibre des charges (en utilisant la loi de Zipf) pour rediriger les requêtes des clients vers les serveurs. Nous avons pris en compte deux techniques de réduction de la consommation d'énergie : le DVFS (Dynamic Voltage Frequency Scaling) et la consolidation de serveurs. Nous avons appliqué ces techniques de réduction de la consommation d'énergie au contexte d'un CDN (au niveau d'un serveur proxy), mais aussi aux politiques d'équilibre et de déséquilibre des charges afin d'économiser l'énergie. Afin d'évaluer les politiques et les mécanismes que nous proposons, nous avons mis l'accent sur la manière de rendre l'utilisation des ressources des CDN plus efficace, mais nous nous sommes également intéressés à leur coût en énergie, à leur impact sur l'expérience utilisateur et sur la qualité de la gestion des infrastructures. Dans ce but, nous avons défini comme métriques d'évaluation l'utilisation des serveurs proxy, d'échec des requêtes comme les paramètres les plus importants. Nous avons transformé un simulateur d'événements discrets CDNsim en Green CDNsim, et évalué notre travail selon différents scénarios de CDN en modifiant : les infrastructures proxy des CDN (nombre de serveurs proxy), le trafic (nombre de requêtes clients) et l'intensité du trafic (fréquence des requêtes client) en prenant d'abord en compte les métriques d'évaluation mentionnées précédemment. Nous sommes les premiers à proposer un DVFS et la combinaison d'un DVFS avec la consolidation d'un environnement de simulation de CDN en prenant en compte les politiques d'équilibre et de déséquilibre des charges. Nous avons conclu que les techniques d'économie d'énergie permettent de réduire considérablement la consommation d'énergie mais dégradent l'expérience utilisateur. Nous avons montré que la technique de consolidation des serveurs est plus efficace dans la réduction d'énergie lorsque les serveurs proxy ne sont pas beaucoup chargés. Dans le même temps, il apparaît que l'impact du DVFS sur l'économie d'énergie est plus important lorsque les serveurs proxy sont bien chargés. La combinaison des deux (DVFS et consolidation des serveurs) permet de consommer moins d'énergie mais dégrade davantage l'expérience utilisateur que lorsque ces deux techniques sont utilisées séparément
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.94 (from 0.93 for Airport st ... to 0.94 for Conception ...)

Alternative Names
École doctorale 475

École Doctorale de Mathématiques Informatique Télécommunications de Toulouse

École doctorale de Mathématiques (Toulouse)

École doctorale de Télécommunications (Toulouse)

École doctorale d'Informatique (Toulouse)

École Doctorale Mathématiques Informatique Télécommunications de Toulouse

ED 475

ED Mathématiques

ED Mathématiques Informatique Télécommunications

ED Mathématiques Informatique Télécommunications de Toulouse (MITT)

ED-MITT

ED475

Institut National des Sciences Appliquées de Toulouse. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Institut National Polytechnique de Toulouse. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Institut Supérieur de l'Aéronautique et de l'Espace. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Paul Sabatier Toulouse 3. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Toulouse 1 Capitole. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Toulouse-Le-Mirail Toulouse 2. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Languages
English (25)

French (16)