WorldCat Identities

École doctorale Mathématiques, informatique et télécommunications (Toulouse)

Overview
Works: 769 works in 1,159 publications in 2 languages and 1,146 library holdings
Roles: Other, Degree grantor, 996
Publication Timeline
.
Most widely held works by informatique et télécommunications (Toulouse) École doctorale Mathématiques
Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs by Amira Dkhil( Book )

3 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics
Extensions of equilibrium logic by modal concepts by Ezgi Iraz Su( Book )

3 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

Here-and-there (HT) logic is a three-valued monotonic logic which is intermediate between classical logic and intuitionistic logic. Equilibrium logic is a nonmonotonic formalism whose semantics is given through a minimisation criterion over HT models. It is closely aligned with answer set programming (ASP), which is a relatively new paradigm for declarative programming. To spell it out, equilibrium logic provides a logical foundation for ASP: it captures the answer set semantics of logic programs and extends the syntax of answer set programs to more general propositional theories, i.e., finite sets of propositional formulas. This dissertation addresses modal logics underlying equilibrium logic as well as its modal extensions. It allows us to provide a comprehensive framework for ASP and to reexamine its logical foundations. In this respect, we first introduce a monotonic modal logic called MEM that is powerful enough to characterise the existence of an equilibrium model as well as the consequence relation in equilibrium models. The logic MEM thus captures the minimisation attitude that is central in the definition of equilibrium models. Then we introduce a dynamic extension of equilibrium logic. We first extend the language of HT logic by two kinds of atomic programs, allowing to update the truth value of a propositional variable here or there, if possible. These atomic programs are then combined by the usual dynamic logic connectives. The resulting formalism is called dynamic here-and-there logic (D-HT), and it allows for atomic change of equilibrium models. Moreover, we relate D-HT to dynamic logic of propositional assignments (DL-PA): propositional assignments set the truth values of propositional variables to either true or false and update the current model in the style of dynamic epistemic logics. Eventually, DL-PA constitutes an alternative monotonic modal logic underlying equilibrium logic. In the beginning of the 90s, Gelfond has introduced epistemic specifications (E-S) as an extension of disjunctive logic programming by epistemic notions. The underlying idea of E-S is to correctly reason about incomplete information, especially in situations when there are multiple answer sets. Related to this aim, he has proposed the world view semantics because the previous answer set semantics was not powerful enough to deal with commonsense reasoning. We here add epistemic operators to the original language of HT logic and define an epistemic version of equilibrium logic. This provides a new semantics not only for Gelfond's epistemic specifications, but also for more general nested epistemic logic programs. Finally, we compare our approach with the already existing semantics, and also provide a strong equivalence result for EHT theories. This paves the way from E-S to epistemic ASP, and can be regarded as a nice starting point for further frameworks of extensions of ASP
Mélange de surfaces en temps réel : visualisation, contrôle des déformations et application à la modélisation by Olivier Gourmel( Book )

3 editions published in 2015 in French and held by 3 WorldCat member libraries worldwide

Implicit surfaces have been considered during the eightees as a promising alternative to parametric surfaces (NURBS patches, etc...). They are defined as the set of points having the same value of a scalar field, thus spliting the space into two volumes. Their volumetric nature confers them interesting properties for geometric modeling: the topology of objects is handled automatically, geometries are guaranteed to be manifold and they can produce smooth blendings of objects easily. However, they were abandoned at the beginning of the 21st century due to the limitations they impose: they are computationally expensive to evaluate and to display, and the shape of the transition between objects is difficult to control. This thesis proposes new solutions to these problems in implicit surfaces modeling. First of all, it is shown that the use of a new object-partitioning structure, mixing the properties of a bounding volume hierarchy and a Kd-Tree, makes it possible to raytrace a large number of implicit primitives at interactive frame rates. Therefore it allows real time visualization of fluid-like shapes, defined as an isosurface of a potential field computed as the sum of simple primitives. Simple composition operators of implicit surfaces, such as the sum operator, allow a fast computation of a potential field combining thousands of primitives. Nevertheless, the shape of the resulting surfaces is organic and difficult to control. In this thesis, a new kind of composition operators is proposed, which takes both the value and the gradient of the source potential fields as input. These operators give much more control on the shape of the surfaces, and they avoid the classical problems of implicit surfaces composition, such as bulging at the intersection of two primitives or blending of surfaces at a distance. Finally, a new skeleton-based animation technique is presented which reproduces the deformations of some implicit surfaces on a given mesh. We define a potential field as the composition of implicit primitives generated at the bones of the skeleton. Thus each motion of the skeleton will cause distortions in the associated potential field. These distortions can be reproduced on the mesh by moving each of its vertices to the isosurface of the potential field corresponding to their initial potential value. This technique is able to produce rapidly realistic deformations on the limbs of an articulated model of a body
Informatisation d'une forme graphique des Langues des Signes : application au système d'écriture SignWriting by Fabrizio Borgia( Book )

3 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

The studies and the software presented in this work are addressed to a relevant minority of our society, namely deaf people. Many studies demonstrate that, for several reasons, deaf people experience significant difficulties in exploiting a Vocal Language (VL English, Chinese, etc.). In fact, many of them prefer to communicate using Sign Language (SL). As computer scientists, we observed that SLs are currently a set of underrepresented linguistic minorities in the digital world. As a matter of fact, deaf people are among those individuals which are mostly affected by the digital divide. This work is our contribution towards leveling the digital divide affecting deaf people. In particular, we focused on the computer handling of SignWriting, which is one of the most promising systems devised to write SLs
Block-constrained compressed sensing by Claire Boyer( Book )

3 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

Dans cette thèse, nous visons à combiner les théories d'échantillonnage compressé (CS) avec une structure d'acquisition par blocs de mesures. D'une part, nous obtenons des résultats théoriques de CS avec contraintes d'acquisition par blocs, pour la reconstruction de tout vecteur s-parcimonieux et pour la reconstruction d'un vecteur x de support S fixé. Nous montrons que l'acquisition structurée peut donner de bons résultats de reconstruction théoriques, à condition que le signal à reconstruire présente une structure de parcimonie, adaptée aux contraintes d'échantillonnage. D'autre part, nous proposons des méthodes numériques pour générer des schémas d'échantillonnage efficaces reposant sur des blocs de mesures. Ces méthodes s'appuient sur des techniques de projection de mesure de probabilité
Segmentation endodontique sur des images scanner 3D : méthodes et validation by Jérôme Michetti( )

2 editions published in 2019 in French and held by 3 WorldCat member libraries worldwide

Dans les cabinets dentaires, la dévitalisation des dents est un traitement réalisé quotidiennement (6 millions de traitement par an en France). Une bonne connaissance de l'anatomie canalaire (intérieur de la dent ou endodonte) est un pré requis indispensable au succès d'un traitement endodontique. Pour faire face aux nombreuses variations anatomiques qui viennent compliquer cette thérapeutique, les chirurgiens-dentistes ne disposent essentiellement que de la radiographie intra-buccale deux dimensions (2D) laquelle ne permet pas la complète compréhension de cette anatomie 3D. Distorsion, compression de l'anatomie et superposition des structures avoisinantes perturbent la qualité de l'image n'autorisant pas une évaluation qualitative et quantitative précise de cette anatomie. Les appareils de tomographie volumique à faisceau conique (TVFC) présents dans les cabinets dentaires pourraient constituer une alternative en fournissant de petites reconstructions 3D de structures dento-maxillofaciales. Mais l'évaluation de la précision diagnostique des TVFC dentaires sur l'anatomie canalaire est nécessaire afin de pouvoir justifier leur indication pour les traitements endodontiques. En effet, le développement d'une méthode de segmentation endodontique sur des images de TVFC n'est pas aisée du fait de la finesse de cette anatomie canalaire par rapport à la résolution du système d'imagerie, de la qualité d'image et de la difficulté à valider les résultats obtenus. Afin d'aider la thérapeutique endodontique, les travaux réalisés dans cette thèse ont pour but de fournir des outils informatiques et des méthodes utiles à l'obtention d'une évaluation quantitative du réseau canalaire radiculaire. Après une présentation de l'anatomie endodontique et des principes du traitement canalaire, nous avons décrits les caractéristiques techniques des appareils de tomographie volumique à faisceau conique et les outils existants pour évaluer de manière quantitative cette anatomie sur des images issues de micro-scanners haute-résolution dédiés à la recherche. Nous avons ensuite proposé une méthode pour évaluer les résultats de segmentation endodontique en TVFC par comparaison avec les données micro-scanners. Afin de valider cette méthode et d'évaluer la faisabilité de segmenter l'endodonte en TVFC, nous avons testé un seuillage local adaptatif développé pour répondre à notre problématique sur des dents extraites. Pour permettre la validation des résultats de segmentation sur des images de qualité clinique (dégradée par les structures anatomiques autour des dents dans et hors champ de vue), nous avons élaboré et validé un fantôme parodontal réalisé autour de dents extraites et permettant de préserver la comparaison avec la vérité terrain fournie par les micro-scanners. En fin de thèse, nous avons évoqué les perspectives basées sur l'apprentissage profond et les premières études réalisées pour compenser la réduction de la qualité d'image afin de pouvoir tester et valider la segmentation endodontique en condition clinique
Théorèmes limites et ordres stochastiques relatifs aux lois et processus stables by Solym Mawaki Manou-Abi( Book )

3 editions published in 2015 in French and held by 3 WorldCat member libraries worldwide

This PhD Thesis is composed of three independent parts about stable laws and processes. In the first part, we establish convergence theorems (invariance principle) to stable processes, for additive functionals of a discrete time Markov chain that are not assumed to be square-integrable. The method is based on the use of mixing coefficients for Markov chains. In the second part, we obtain some rates of convergence to stable laws in the generalized central limit theorem by means of the Zolotarev ideal probability metric. The last part of the thesis is devoted to the study of convex ordering or convex comparison inequalities between stochastic integrals driven by stable processes. The main idea of our results is based on the forward-backward stochastic calculus for the stable case
Conception et évaluation des systèmes interactifs mixtes selon une approche centrée utilisateurs by Syrine Charfi( Book )

2 editions published in 2009 in French and held by 3 WorldCat member libraries worldwide

Mixed Interactive Systems (MIS) encompass mixed and augmented reality, augmented virtuality, and tangible interfaces systems. MIS require heterogeneous objects, such as real world physical object and specific electronic devices. These particular aspects lead to different modeling approaches from classical user interfaces. Existing models neither integrate MIS in the global user activity, nor take into account the dynamics of mixed interactive situations. Besides, MIS require different usability approaches since they have an impact on the physical environment and user habits. However, existing ergonomic knowledge and methods don't totally cover MIS specific aspects. In this work, we propose, firstly, to extract usability recommendations (U.R.) dedicated to MIS, resulting from a systematic review of the literature. These U.R. represent a tool that leads to make ergonomics considerations during the design. Secondly, we use task models to integrate MIS interaction in the user activity, and MIS interaction models to describe their complexity
Inégalités isopérimétriques produit pour les élargissements euclidien et uniforme : symétrisation et inégalités fonctionnelles by Benoit Huou( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

The isoperimetric problem in a metric measured space consists in finding the sets having minimal boundary measure, with prescribed volume. It can be formulated in various settings (general metric measured spaces, Riemannian manifolds, submanifolds of the Euclidean space, ...). At this point, two questions arise : - What are the optimal sets, namely the sets having smallest boundary measure (it has to be said that they do not always exist) ? - What is the smallest boundary measure ? The solution to the second answer can be expressed by a function called the isoperimetric profile. This function maps a value of (prescribed) measure onto the corresponding smallest boundary measure. As for the precise notion of boundary measure, it can be defined in different ways (Minkowski content, geometric perimeter, ...), all of them closely linked to the ambient distance and measure. The main object of this thesis is the study of the isoperimetric problem in product spaces, in order to transfer isoperimetric inequalities from factor spaces to the product spaces, or to compare their isoperimetric profiles. The thesis is divided into four parts : - Study of the symmetrization operation (for sets) and the rearrangement operation (for functions), analogous notions, from the point of view of Geometric Measure Theory and Bounded Variation functions. These operations cause the boundary measure to decrease (for sets), or the variation (for functions). We introduce a new class of model spaces, for which we obtain similar results to those concerning classic model spaces : transfer of isoperimetric inequalities to the product spaces, energy comparison (for convex functionals). - Detailed proof of an argument of minorization of the isoperimetric profile of a metric measured product space XxY by a function depending on the profiles of X and Y, for a wide class of product distances over XxY. The study of this problem uses the minimization of a functional defined on Radon measures class. - Study of the isoperimetric problem in a metric measured space (n times the same space) equipped with the uniform combination of its distance (uniform enlargement). We give a condition under which every isoperimetric profile (whatever the order of iteration might be) is bounded from below by a quantity which is proportional to the isoperimetric profile of the underlying space. We then apply the result to geometric influences. - Study of isoperimetric functional inequalities, which give information about the isoperimetric behavior of the product spaces. We give an overview of the results about this kind of inequalities, and suggest a method to prove such an inequality in a particular case of real measures for which the problem reamins open
Programmation stochastique à deux étapes pour l'ordonnancement des arrivées d'avions sous incertitude by Ahmed Khassiba( Book )

2 editions published in 2020 in French and held by 2 WorldCat member libraries worldwide

Airport operations are well known to be a bottleneck in the air traffic system, which puts more and more pressure on the world busiest airports to optimally schedule landings, in particular, and also but to a smaller extent departures. The Aircraft Landing Problem (ALP) has arisen from this operational need. ALP consists in finding for aircraft heading to a given airport a landing sequence and landing times so as to optimize some given criteria (optimizing runway utilization, minimizing delays, etc) while satisfying operational constraints (safety constraints mainly). As a reply to this operational need, decision support tools have been designed and put on service for air traffic controllers since the early nineties in the US as well as in Europe. A considerable number of publications dealing with ALP focus on the deterministic and static case. However, the aircraft landing problem arising in practice has a dynamic nature riddled with uncertainties. In addition, operational horizon of current decision support tools are to be extended so that aircraft are captured at larger distances from the airport to hopefully start the scheduling process earlier. Such a horizon extension affects the quality of input data which enlarges the uncertainty effect. In this thesis, we aim at scheduling aircraft arrivals under uncertainty. For that purpose, we propose an approach based on two-stage stochastic programming. In the first stage, aircraft are captured at a large distance from the destination airport. They are to be scheduled on the same initial approach fix (IAF), a reference point in the near-to-airport area where aircraft start their approach phase preparing for landing. Actual IAF arrival times are assumed to be random variables with known probability distributions. In practice, such an uncertainty may cause loss of safety separations between aircraft. In such situations, air traffic controllers are expected to intervene to ensure air traffic safety. In order to alleviate the consequent air trqffic control workload, chance constraints are introduced so that the safety risks around the IAF are limited to an acceptable level once the uncertainty is revealed. The second stage corresponds to the situation where aircraft are actually close to the IAF. In this stage, the uncertainty is revealed and a recourse decision is made in order to schedule aircraft on the runway threshold so that a second-stage cost function is minimized (e.g., air traffic control workload, delay cost, etc). Our first contribution is a proof of concept of the extended aircraft arrival management under uncertainty and a computational study on optimization parameters and problem characteristics. Modeling this problem as a two-stage stochastic programming model and solving it by a Benders decomposition is our second contribution. Finally, our third contribution focuses on extending our model to the more realistic case, where aircraft in the first stage are scheduled on several IAFs
Identification systématique et représentation des erreurs humaines dans les modèles de tâches by Racim Mehdi Fahssi( Book )

2 editions published in 2018 in French and held by 2 WorldCat member libraries worldwide

Dans les approches centrées utilisateur, les techniques, méthodes, et processus de développement utilisés visent à connaître et comprendre les utilisateurs (analyser leurs besoins, évaluer leurs manières d'utiliser les systèmes) dans le but de concevoir et développer des systèmes utilisables, c'est-à-dire, en adéquation avec leurs comportements, leurs compétences et leurs besoins. Parmi les techniques employées pour garantir l'utilisabilité, la modélisation des tâches permet de décrire les objectifs et acticités des utilisateurs. Grâce aux modèles produits, les spécialistes des facteurs humains peuvent analyser et évaluer l'efficacité des applications interactives. Cette approche d'analyse et de modélisation de tâches a toujours mis l'accent sur la représentation explicite du comportement standard de l'utilisateur. Ceci s'explique par le fait que les erreurs humaines ne font pas partie des objectifs des utilisateurs et qu'ils sont donc exclus de la description des tâches. Cette vision sans erreurs, suivie largement par la communauté en Interaction Homme-Machine, est très différente de celle de la communauté en Facteur Humain qui, depuis ses débuts, s'intéresse à comprendre les causes des erreurs humaines et leur impact sur la performance, mais aussi sur des aspects majeurs comme la sureté de fonctionnement et la fiabilité des utilisateurs et de leur travail. L'objectif de cette thèse est de démontrer qu'il est possible de décrire de façon systématique, dans des modèles de tâches, les erreurs pouvant survenir lors de l'accomplissement de tâches utilisateur. Pour cette démonstration, nous proposons une approche à base de modèles de tâches associée à un processus de description des erreurs humaines et supportée par un ensemble d'outils. Cette thèse présente les résultats de l'application de l'approche proposée à une étude de cas industrielle dans le domaine d'application de l'aéronautique
Sur la notion d'optimalité dans les problèmes de bandit stochastique by Pierre Ménard( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

The topics addressed in this thesis lie in statistical machine learning and sequential statistic. Our main framework is the stochastic multi-armed bandit problems. In this work we revisit lower bounds on the regret. We obtain non-asymptotic, distribution-dependent bounds and provide simple proofs based only on well-known properties of Kullback-Leibler divergence. These bounds show in particular that in the initial phase the regret grows almost linearly, and that the well-known logarithmic growth of the regret only holds in a final phase. Then, we propose algorithms for regret minimization in stochastic bandit models with exponential families of distributions or with distribution only assumed to be supported by the unit interval, that are simultaneously asymptotically optimal (in the sense of Lai and Robbins lower bound) and minimax optimal. We also analyze the sample complexity of sequentially identifying the distribution whose expectation is the closest to some given threshold, with and without the assumption that the mean values of the distributions are increasing. This work is motivated by phase I clinical trials, a practically important setting where the arm means are increasing by nature. Finally we extend Fano's inequality, which controls the average probability of (disjoint) events in terms of the average of some Kullback-Leibler divergences, to work with arbitrary unit-valued random variables. Several novel applications are provided, in which the consideration of random variables is particularly handy. The most important applications deal with the problem of Bayesian posterior concentration (minimax or distribution-dependent) rates and with a lower bound on the regret in non-stochastic sequential learning
Optimal uncertainty quantification of a risk measurement from a computer code by Jérôme Stenger( Book )

2 editions published in 2020 in English and held by 2 WorldCat member libraries worldwide

Uncertainty quantification in a safety analysis study can be conducted by considering the uncertain inputs of a physical system as a vector of random variables. The most widespread approach consists in running a computer model reproducing the physical phenomenon with different combinations of inputs in accordance with their probability distribution. Then, one can study the related uncertainty on the output or estimate a specific quantity of interest (QoI). Because the computer model is assumed to be a deterministic black-box function, the QoI only depends on the choice of the input probability measure. It is formally represented as a scalar function defined on a measure space. We propose to gain robustness on the quantification of this QoI. Indeed, the probability distributions characterizing the uncertain input may themselves be uncertain. For instance, contradictory expert opinion may make it difficult to select a single probability distribution, and the lack of information in the input variables affects inevitably the choice of the distribution. As the uncertainty on the input distributions propagates to the QoI, an important consequence is that different choices of input distributions will lead to different values of the QoI. The purpose of this thesis is to account for this second level uncertainty. We propose to evaluate the maximum of the QoI over a space of probability measures, in an approach known as optimal uncertainty quantification (OUQ). Therefore, we do not specify a single precise input distribution, but rather a set of admissible probability measures defined through moment constraints. The QoI is then optimized over this measure space. After exposing theoretical results showing that the optimization domain of the QoI can be reduced to the extreme points of the measure space, we present several interesting quantities of interest satisfying the assumption of the problem. This thesis illustrates the methodology in several application cases, one of them being a real nuclear engineering case that study the evolution of the peak cladding temperature of fuel rods in case of an intermediate break loss of coolant accident
A NEW FORMULATION AND RESOLUTION SCHEMES FOR PLANNING COLLABORATIVE HUMAN-ROBOT TASKS by Jules Waldhart( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

Les robots interagissant avec des humains doivent se comporter en adéquation avec certaines de nos règles sociaux-culturelles, qui doivent être considérées par chaque composant du robot. Lorsqu'il décide d'une action à faire et de comment l'exécuter, le système a besoin de communiquer l'information contextuelle pertinente à chacun de ses composants afin qu'ils puissent respecter ces règles. Il est essentiel que de tels robots puissent se coordonner sans accrocs avec leur partenaires humains. Nous humains utilisons de nombreux signaux de synchronisation notamment via le regard, la lisibilité de nos gestes ou par le dialogue. Nous inférons efficacement les possibilités d'actions de nos partenaires, ce qui nous aide à anticiper ce qu'ils vont ou devraient faire afin de mieux planifier nos propres actions. Dans le domaine de l'interaction Homme-robot, ces capacités sont essentielles. Cette thèse présente notre approche pour résoudre deux tâches où humains et robots collaborent étroitement: un problème de transport d'objet où plusieurs robots et humain doivent ou peuvent se faire passer un objet de main à main pour l'amener d'un endroit à un autre, et une tâche de guide où le robot aide des humains à s'orienter en utilisant dialogue, navigation et mouvements déictiques (pointage). Nous présentons notre implantation de ces composants et de leur articulation dans le cadre d'une d'architecture où l'information contextuelle est transmise des plus hauts niveaux de décision vers les plus bas qui l'utilisent pour s'adapter. Le robot planifie aussi pour les actions des humains, comme dans un système multi-robot, ce qui lui permet de ne pas être dans l'attente des actions des humains, mais d'être proactif dans la proposition d'une solution, et d'anticiper leurs actions futures
Recherche d'information sociale : exploitation des signaux sociaux pour améliorer la recherche d'information by Ismail Badache( Book )

2 editions published in 2016 in French and held by 2 WorldCat member libraries worldwide

Notre travail se situe dans le contexte de recherche d'information sociale (RIS) et s'intéresse plus particulièrement à l'exploitation du contenu généré par les utilisateurs dans le processus de la recherche d'information. Le contenu généré par les utilisateurs (en anglais User-generated content, ou UGC) se réfère à un ensemble de données (ex. signaux sociaux) dont le contenu est principalement, soit produit, soit directement influencé par les utilisateurs finaux. Il est opposé au contenu traditionnel produit, vendu ou diffusé par les professionnels. Le terme devient populaire depuis l'année 2005, dans les milieux du Web 2.0, ainsi que dans les nouveaux médias sociaux. Ce mouvement reflète la démocratisation des moyens de production et d'interaction dans le Web grâce aux nouvelles technologies. Parmi ces moyens de plus en plus accessibles à un large public, on peut citer les réseaux sociaux, les blogs, les microblogs, les Wikis, etc. Les systèmes de recherche d'information exploitent dans leur majorité deux classes de sources d'évidence pour trier les documents répondant à une requête. La première, la plus exploitée, est dépendante de la requête, elle concerne toutes les caractéristiques relatives à la distribution des termes de la requête dans le document et dans la collection (tf-idf). La seconde classe concerne des facteurs indépendants de la requête, elle mesure une sorte de qualité ou d'importance a priori du document. Parmi ces facteurs, on en distingue le PageRank, la localité thématique du document, la présence d'URL dans le document, ses auteurs, etc. Une des sources importantes que l'on peut également exploiter pour mesurer l'intérêt d'une page Web ou de manière générale une ressource, est le Web social. En effet, grâce aux outils proposés par le Web 2.0 les utilisateurs interagissent de plus en plus entre eux et/ou avec les ressources. Ces interactions (signaux sociaux), traduites par des annotations, des commentaires ou des votes associés aux ressources, peuvent être considérés comme une information additionnelle qui peut jouer un rôle pour mesurer une importance a priori de la ressource en termes de popularité et de réputation, indépendamment de la requête. Nous supposons également que l'impact d'un signal social dépend aussi du temps, c'est-à-dire la date à laquelle l'action de l'utilisateur est réalisée. Nous considérons que les signaux récents devraient avoir un impact supérieur vis-à-vis des signaux anciens dans le calcul de l'importance d'une ressource. La récence des signaux peut indiquer certains intérêts récents à la ressource. Ensuite, nous considérons que le nombre de signaux d'une ressource doit être pris en compte au regard de l'âge (date de publication) de cette ressource. En général, une ressource ancienne en termes de durée d'existence a de fortes chances d'avoir beaucoup plus de signaux qu'une ressource récente. Ceci conduit donc à pénaliser les ressources récentes vis-à-vis de celles qui sont anciennes. Enfin, nous proposons également de prendre en compte la diversité des signaux sociaux au sein d'une ressource
Flots de Monge-Ampère complexes sur les variétés hermitiennes compactes by Tat Dat Tô( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

Dans cette thèse nous nous intéressons aux flots de Monge-Ampère complexes, à leurs généralisations et à leurs applications géométriques sur les variétés hermitiennes compactes. Dans les deux premiers chapitres, nous prouvons qu'un flot de Monge-Ampère complexe sur une variété hermitienne compacte peut être exécuté à partir d'une condition initiale arbitraire avec un nombre Lelong nul en tous points. En utilisant cette propriété, nous con- firmons une conjecture de Tosatti-Weinkove: le flot de Chern-Ricci effectue une contraction chirurgicale canonique. Enfin, nous étudions une généralisation du flot de Chern-Ricci sur des variétés hermitiennes compactes, le flot de Chern-Ricci tordu. Cette partie a donné lieu à deux publications indépendantes. Dans le troisième chapitre, une notion de C -sous-solution parabolique est introduite pour les équations paraboliques, étendant la théorie des C -sous-solutions développée récem- ment par B. Guan et plus spécifiquement G. Székelyhidi pour les équations elliptiques. La théorie parabolique qui en résulte fournit une approche unifiée et pratique pour l'étude de nombreux flots géométriques. Il s'agit ici d'une collaboration avec Duong H. Phong (Université Columbia ) Dans le quatrième chapitre, une approche de viscosité est introduite pour le problème de Dirichlet associé aux équations complexes de type hessienne sur les domaines de Cn. Les arguments sont modélisés sur la théorie des solutions de viscosité pour les équations réelles de type hessienne développées par Trudinger. En conséquence, nous résolvons le problème de Dirichlet pour les équations de quotient de hessiennes et lagrangiennes spéciales. Nous établissons également des résultats de régularité de base pour les solutions. Il s'agit ici d'une collaboration avec Sl-awomir Dinew (Université Jagellonne) et Hoang-Son Do (Institut de Mathématiques de Hanoi)
Cardiac motion estimation in ultrasound images using a sparse representation and dictionary learning by Nora Leïla Ouzir( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

Les maladies cardiovasculaires sont de nos jours un problème de santé majeur. L'amélioration des méthodes liées au diagnostic de ces maladies représente donc un réel enjeu en cardiologie. Le coeur étant un organe en perpétuel mouvement, l'analyse du mouvement cardiaque est un élément clé pour le diagnostic. Par conséquent, les méthodes dédiées à l'estimation du mouvement cardiaque à partir d'images médicales, plus particulièrement en échocardiographie, font l'objet de nombreux travaux de recherches. Cependant, plusieurs difficultés liées à la complexité du mouvement du coeur ainsi qu'à la qualité des images échographiques restent à surmonter afin d'améliorer la qualité et la précision des estimations. Dans le domaine du traitement d'images, les méthodes basées sur l'apprentissage suscitent de plus en plus d'intérêt. Plus particulièrement, les représentations parcimonieuses et l'apprentissage de dictionnaires ont démontré leur efficacité pour la régularisation de divers problèmes inverses. Cette thèse a ainsi pour but d'explorer l'apport de ces méthodes, qui allient parcimonie et apprentissage, pour l'estimation du mouvement cardiaque. Trois principales contributions sont présentées, chacune traitant différents aspects et problématiques rencontrées dans le cadre de l'estimation du mouvement en échocardiographie. Dans un premier temps, une méthode d'estimation du mouvement cardiaque se basant sur une régularisation parcimonieuse est proposée. Le problème d'estimation du mouvement est formulé dans le cadre d'une minimisation d'énergie, dont le terme d'attache aux données est construit avec l'hypothèse d'un bruit de Rayleigh multiplicatif. Une étape d'apprentissage de dictionnaire permet une régularisation exploitant les propriétés parcimonieuses du mouvement cardiaque, combinée à un terme classique de lissage spatial. Dans un second temps, une méthode robuste de flux optique est présentée. L'objectif de cette approche est de robustifier la méthode d'estimation développée au premier chapitre de manière à la rendre moins sensible aux éléments aberrants. Deux régularisations sont mises en oeuvre, imposant d'une part un lissage spatial et de l'autre la parcimonie des champs de mouvements dans un dictionnaire approprié. Afin d'assurer la robustesse de la méthode vis-à-vis des anomalies, une stratégie de minimisation récursivement pondérée est proposée. Plus précisément, les fonctions employées pour cette pondération sont basées sur la théorie des M-estimateurs. Le dernier travail présenté dans cette thèse, explore une méthode d'estimation du mouvement cardiaque exploitant une régularisation parcimonieuse combinée à un lissage à la fois dans les domaines spatial et temporel. Le problème est formulé dans un cadre général d'estimation de flux optique. La régularisation temporelle proposée impose des trajectoires de mouvement lisses entre images consécutives. De plus, une méthode itérative d'estimation permet d'incorporer les trois termes de régularisations, tout en rendant possible le traitement simultané d'un ensemble d'images. Dans cette thèse, les contributions proposées sont validées en employant des images synthétiques et des simulations réalistes d'images ultrasonores. Ces données avec vérité terrain permettent d'évaluer la précision des approches considérées, et de souligner leur compétitivité par rapport à des méthodes de l'état-del'art. Pour démontrer la faisabilité clinique, des images in vivo de patients sains ou atteints de pathologies sont également considérées pour les deux premières méthodes. Pour la dernière contribution de cette thèse, i.e., exploitant un lissage temporel, une étude préliminaire est menée en utilisant des données de simulation
Méthodes de séparation aveugle de sources et application à l'imagerie hyperspectrale en astrophysique by Axel Boulais( Book )

2 editions published in 2017 in French and held by 2 WorldCat member libraries worldwide

Ces travaux de thèse concernent le développement de nouvelles méthodes de séparation aveugle de mélanges linéaires instantanés pour des applications à des données hyperspectrales en astrophysique. Nous avons proposé trois approches pour effectuer la séparation des données. Une première contribution est fondée sur l'hybridation de deux méthodes existantes de séparation aveugle de source (SAS) : la méthode SpaceCORR nécessitant une hypothèse de parcimonie et une méthode de factorisation en matrices non négatives (NMF). Nous montrons que l'utilisation des résultats de SpaceCORR pour initialiser la NMF permet d'améliorer les performances des méthodes utilisées seules. Nous avons ensuite proposé une première méthode originale permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode MASS (pour \textit{Maximum Angle Source Separation}) est une méthode géométrique basée sur l'extraction de pixels mono-sources pour réaliser la séparation des données. Nous avons également étudié l'hybridation de MASS avec la NMF. Enfin, nous avons proposé une seconde approche permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode originale SIBIS (pour \textit{Subspace-Intersection Blind Identification and Separation}) est une méthode géométrique basée sur l'identification de l'intersection de sous-espaces engendrés par des régions de l'image hyperspectrale. Ces intersections permettent, sous une hypothèse faible de parcimonie, de réaliser la séparation des données. L'ensemble des approches proposées dans ces travaux ont été validées par des tests sur données simulées puis appliquées sur données réelles. Les résultats obtenus sur ces données sont très encourageants et sont comparés à ceux obtenus par des méthodes de la littérature
Exploring the reuse of past search results in information retrieval by Claudio Gutierrez Soto( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

Past searches provide a useful source of information for new users (new queries). Due to the lack of ad-hoc IR collections, to this date there is a weak interest of the IR community on the use of past search results. Indeed, most of the existing IR collections are composed of independent queries. These collections are not appropriate to evaluate approaches rooted in past queries because they do not gather similar queries due to the lack of relevance judgments. Therefore, there is no easy way to evaluate the convenience of these approaches. In addition, elaborating such collections is difficult due to the cost and time needed. Thus a feasible alternative is to simulate such collections. Besides, relevant documents from similar past queries could be used to answer the new query. This principle could benefit from clustering of past searches according to their similarities. Thus, in this thesis a framework to simulate ad-hoc approaches based on past search results is implemented and evaluated. Four randomized algorithms to improve precision are proposed and evaluated, finally a new measure in the clustering context is proposed
Intégration holistique et entreposage automatique des données ouvertes by Imen Megdiche Bousarsar( Book )

2 editions published in 2015 in French and held by 2 WorldCat member libraries worldwide

Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.00 (from 0.00 for Mélange d ... to 0.00 for Mélange d ...)

Alternative Names
École doctorale 475

École Doctorale de Mathématiques Informatique Télécommunications de Toulouse

École doctorale de Mathématiques (Toulouse)

École doctorale de Télécommunications (Toulouse)

École doctorale d'Informatique (Toulouse)

École Doctorale Mathématiques Informatique Télécommunications de Toulouse

ED 475

ED Mathématiques

ED Mathématiques Informatique Télécommunications

ED Mathématiques Informatique Télécommunications de Toulouse (MITT)

ED-MITT

ED475

Institut National des Sciences Appliquées de Toulouse. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Institut National Polytechnique de Toulouse. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Institut Supérieur de l'Aéronautique et de l'Espace. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Paul Sabatier Toulouse 3. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Toulouse 1 Capitole. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Université Toulouse-Le-Mirail Toulouse 2. Mathématiques Informatique Télécommunications de Toulouse (MITT)

Languages
English (26)

French (20)