WorldCat Identities

École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

Overview
Works: 968 works in 1,040 publications in 3 languages and 1,840 library holdings
Roles: Other, 996
Publication Timeline
.
Most widely held works by sciences et technologies de l'information, informatique (Grenoble) École doctorale mathématiques
Environnements centralisés et distribués pour lexicographes et lexicologues en contexte multilingue by Mathieu Mangeot( Book )

2 editions published in 2001 in French and held by 4 WorldCat member libraries worldwide

The growing needs in lexical resources and the success of the cooperative development projects such as LINUX lead to the idea of accumulating large amounts of very rich multilingual lexical data by cooperative construction on the Web and "mutualized" use. Contributions to data improvement would be standardized and made available thanks to an adapted environment. While studying of the current context of the dictionaries domain, we were led to identifying difficult problems such as heterogeneous data structuring and manipulation, as well as large amount of multilingual lexical data and visualization or construction in cooperation by people with different skills. Prototypes and experiments on consultation of heterogeneous resources, enrichment and personalization of the result, on-line resource building, and entries writing with a standard editor enabled us to solve these problems separately. It allowed us to design a complete lexical databases environment addressing all these problems as a specific layer directly above the DBMS tools that integrates a server for cooperative building. Its kernel includes a generic formalism for the definition of lexical structures derived from SUBLIM of G. Sérasset, but extended and translated in XML. This environment is currently applied to the Papillon project which aims at building/developing of a five-language lexical database by voluntary contributors on the Internet. The architecture of the database is made up of a monolingual dictionary for each language and a pivot dictionary of interlingual acceptions (axies) linking the monolingual entries (lexies) which structure comes from the domain of explanatory and combinatory lexicology. Extra languages are planned to be added soon. The architecture of the server is quite generic and could be reused rapidly in other contexts (translation memories and tools for translators, communication and multilingual IR, multimedia annotations)
T-variétés affines : actions du groupe additif et singularités by Alvaro Liendo( Book )

2 editions published in 2010 in English and held by 3 WorldCat member libraries worldwide

AT -variety is an algebraic variety endowed with an effective action of an algebraic toms T. This thesis is devoted to the study of two aspects of normal affine T-varieties: the additive group actions and the characterization of singularities. Let X=spec A be a normal affine T-variety and let D be a homogeneous locally nilpotent derivation on the normal affine Z"n-graded domain A, so that D generates an action of the additive group on X. We provide a complete classification of pairs (X,D) in three cases: for toric varieties, in the case where the complexity is one, and in the case where D is of fiber type. As an application, we compute the homogeneous Makar-Limanov (ML) invariant of such varieties. We deduce that any variety with trivial ML-invariant is birationally decomposable as Y\times P"2, for sorne variety Y. Conversely, given a variety Y, there exists an affine T-variety X with trivial ML invariant birational to Y\times P"2. ln the second part concerning singularities of a T-variety X we compute the higher direct images of the structure sheaf of a desingularization of X. As a consequence, we give a criterion as to when a T-variety has rational singularities. We also provide a condition for a T-variety to be Cohen¬Macaulay. As an application, we characterize quasihomogeneous elliptic singularities of surfaces
Interopérabilité Sémantique Multi-lingue des Ressources Lexicales en Données Liées Ouvertes by Andon Tchechmedjiev( )

2 editions published in 2016 in French and held by 3 WorldCat member libraries worldwide

When it comes to the construction of multilingual lexico-semantic resources, the first thing that comes to mind is that the resources we want to align, should share the same data model and format (representational interoperability). However, with the emergence of standards such as LMF and their implementation and widespread use for the production of resources as lexical linked data (Ontolex), representational interoperability has ceased to be a major challenge for the production of large-scale multilingual resources. However, as far as the interoperability of sense-level multi-lingual alignments is concerned, a major challenge is the choice of a suitable interlingual pivot. Many resources make the choice of using English senses as the pivot (e.g. BabelNet, EuroWordNet), although this choice leads to a loss of contrast between English senses that are lexicalized with a different words in other languages. The use of acception-based interlingual representations, a solution proposed over 20 years ago, could be viable. However, the manual construction of such language-independent pivot representations is very difficult due to the lack of expert speaking enough languages fluently and algorithms for their automatic constructions have never since materialized, mainly because of the lack of a formal axiomatic characterization that ensures the pre- servation of their correctness properties. In this thesis, we address this issue by first formalizing acception-based interlingual pivot architectures through a set of axiomatic constraints and rules that guarantee their correctness. Then, we propose algorithms for the initial construction and the update (dynamic interoperability) of interlingual acception-based multilingual resources by exploiting the combinatorial properties of pairwise bilingual translation graphs. Secondly, we study the practical considerations of applying our construction algorithms on a tangible resource, DBNary, a resource periodically extracted from Wiktionary in many languages in lexical linked data
Définition et utilisation de traces issues de plateformes virtuelles pour le débogage des MPSoCs by Marcos Cunha Pinto( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

The increasing complexity of Multiprocessor System on Chip (MPSoC) makes the engineers' life harder as bugs and inefficiencies can have a very broad range of sources. Hardware/software interactions can be one of these sources, their early identification and resolution being a priority for rapid system integration. Thus, due to the huge number of possible execution interleavings, reproducing the conditions of occurrence of a given error/performance issue is very difficult. One solution to this problem consists of tracing an execution for later analysis. Obtaining the traces from real platforms goes against the recent development processes, now broadly adopted by industry and academy, which rely on simulation to anticipate hardware/software integration. Multi/many core systems on chip tend to have specific memory hierarchies, to make the hardware simpler and predictable, at the cost of having the hardware percolate towards the high levels of the software stack. Despite the developers efforts, it is hard to make sure all preventive measures are taken to ensure a given property, such as lack of race conditions or data coherency. In this context, the debugging process is particularly tedious as it involves analyzing parallel execution flows. Executing a program many times is an integral part of the process in conventional debugging, but the non-determinism due to parallel execution often leads to different execution paths and different behaviors.This thesis details the challenges and issues behind the production and exploitation of "well formed" traces in a transaction accurate virtual prototyping environment that uses dynamic binary translation as processor simulation technology. These traces contain causality relations among events, which allow firstly to simplify the analysis, and secondly to avoid relying on timestamps. We propose a formalism to define the traces and detail an implementation to produce them in a non-intrusive manner. We use these traces to help identify and correct bugs on multi/many-core platforms. We firstly introduce a method to identify the potential cache coherence violations in non-cache-coherent platforms. Our method identifies potential violations which may occur during a given execution for write-through and write-back cache policies by analyzing the traces.We secondly focus on easing the debugging process of parallel software running on MPSoC using traces. To that aim, we propose a debugging process which replays a faulty execution using traces. We detail a strategy for providing forward and reverse execution features to avoid long simulation times during a debug session.We conducted experiments on MPSoC using parallel applications to quantify our proposal, and overall show that complex analysis and debug strategies can be implemented over traces, leading to deterministic results in shorter time than simulation alone
Static analysis of program by Abstract Interpretation and Decision Procedures by Julien Henry( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

Static program analysis aims at automatically determining whether a program satisfies some particular properties. For this purpose, abstract interpretation is a framework that enables the computation of invariants, i.e. properties on the variables that always hold for any program execution. The precision of these invariants depends on many parameters, in particular the abstract domain, and the iteration strategy for computing these invariants. In this thesis, we propose several improvements on the abstract interpretation framework that enhance the overall precision of the analysis.Usually, abstract interpretation consists in computing an ascending sequence with widening, which converges towards a fixpoint which is a program invariant; then computing a descending sequence of correct solutions without widening. We describe and experiment with a method to improve a fixpoint after its computation, by starting again a new ascending/descending sequence with a smarter starting value. Abstract interpretation can also be made more precise by distinguishing paths inside loops, at the expense of possibly exponential complexity. Satisfiability modulo theories (SMT), whose efficiency has been considerably improved in the last decade, allows sparse representations of paths and sets of paths. We propose to combine this SMT representation of paths with various state-of-the-art iteration strategies to further improve the overall precision of the analysis.We propose a second coupling between abstract interpretation and SMT in a program verification framework called Modular Path Focusing, that computes function and loop summaries by abstract interpretation in a modular fashion, guided by error paths obtained with SMT. Our framework can be used for various purposes: it can prove the unreachability of certain error program states, but can also synthesize function/loop preconditions for which these error states are unreachable.We then describe an application of static analysis and SMT to the estimation of program worst-case execution time (WCET). We first present how to express WCET as an optimization modulo theory problem, and show that natural encodings into SMT yield formulas intractable for all current production-grade solvers. We propose an efficient way to considerably reduce the computation time of the SMT-solvers by conjoining to the formulas well chosen summaries of program portions obtained by static analysis.We finally describe the design and the implementation of Pagai,a new static analyzer working over the LLVM compiler infrastructure,which computes numerical inductive invariants using the various techniques described in this thesis.Because of the non-monotonicity of the results of abstract interpretation with widening operators, it is difficult to conclude that some abstraction is more precise than another based on theoretical local precision results. We thus conducted extensive comparisons between our new techniques and previous ones, on a variety of open-source packages and benchmarks used in the community
Médiation et sélection de sources de données pour des organisations virtuelles distribuées à grande échelle by Alexandra Pomares Quimbaya( Book )

2 editions published in 2010 in Spanish and held by 2 WorldCat member libraries worldwide

La sélection de sources de données est un des processus des plus critiques pour les systèmes de médiation dans des contextes grande échelle. C'est le cas notamment des grandes organisations virtuelles où le grand nombre de sources de données, la distribution, l'hétérogénéité, la fragmentation et la duplication des données rendent difficile l'identiffcation des sources pertinentes à l'évaluation d'une requête. Cette thèse aborde cette problématique et propose OptiSource, une stratégie de sélection de sources de données créée pour des tels contextes. OptiSource est particulièrement performante dans des configurations où un grand nombre de sources sont susceptibles de contribuer à une requête selon leur niveau intentionnel (schéma), mais seulement un petit nombre d'entre elles peuvent effectivement le faire au niveau extensionnel (le contenu). OptiSource propose un processus itératif basé sur sélection des sources de données dominantes pour chaque condition de la requête. Les sources dominantes sont désignées selon leur contribution attendue. Cette estimation utilise un modèle qui priorise les sources en fonction du rôle qu'elles peuvent jouer dans la requête, et optimise la répartition des sous-requêtes en utilisant un modèle d'optimisation combinatoire. OptiSource fait partie d'un système de médiation créé pour organisations virtuelles qui peut choisir dynamiquement la stratégie de sélection de sources la plus approprié au contexte. Notre domaine d'application privilégié a été le médical. Nous avons validé nos propositions sur divers types de contextes de grande taille
Interactive deformation of virtual paper by Camille Schreck( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Le papier est un matériau très commun que l'on manipule quotidiennement. Pourtant on ne le trouve que rarement dans les environnements 3d. En effet, à cause de sa structure fibreuse, le papier, de même que le son qu'il produit, présente un comportement complexe qui se révèle difficile à reproduire avec les méthodes habituelles. En particulier, la surface du papier reste constamment isométrique à son patron 2D et peut se froisser ou se déchirer, créant ainsi de fins détails géométriques. Lorsqu'il se déforme, le papier produit également un son très caractéristique qui dépend fortement de la géométrie adoptée par la surface.Dans cette thèse, nous proposons de combiner une simulation physique usuelle avec de nouvelles méthodes, procédurales ou géométriques, de façon à tirer parti de connaissances préalables afin de modéliser la surface et le son d'une feuille de papier manipulée virtuellement. Plutôt que d'obtenir des résultats précis au sens physique, nous cherchons à reproduire un comportement plausible du papier, permettant ainsi à un utilisateur de créer interactivement des animations de papier virtuel.Nous nous concentrons dans un premier temps sur le cas du papier froissé. Pour cela, nous entrelaçons une étape de simulation physique avec une étape de remaillage géométrique qui adapte le maillage aux plis du papier froissé, exploitant pour cela la dévelopabilité du papier.Nous tirons ensuite profit de ce modèle pour développer une méthode permettant de déchirer du papier virtuelle en temps réel. Nous utilisons les informations sur la géométrie fournie par l'étape de remaillage pour trouver les points pouvant potentiellement être les points de départ d'une déchirure. Nous proposons aussi une nouvelle approche hybride, à la fois physique et géométrique, pour déterminer la direction général de propagation tout en créant de façon procédurale les détails du tracé d'une déchirure en utilisant une texture représentant la répartition des fibres.Enfin, nous proposons une génération de sons de papier, à la fois plausible, dépendant de la forme de la surface et qui s'opère en temps réel. Nous analysons les informations, géométriques et dynamiques, données par le modèle d'animation pour détecter les événements produisant du son et calculer les régions dans lesquelles le son résonne. Le son résultant est synthétisé à l'aide de sons pré-enregistrés et d'une génération procédurale, de façon à tenir compte de géométrie de la surface et sa dynamique
Ondes localisées dans des systèmes mécaniques discrets excitables by Jose Eduardo Morales Morales( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

This thesis analyses localized travelling waves for some classes of nonlinearlattice differential equations describing excitable mechanical systems. Thesesystems correspond to an infinite chain of blocks connected by springs and sliding on a surface in the presence of a nonlinear velocity-dependent friction force. We investigate both the Burridge-Knopoff model (with blocks attached to springs pulled at constant velocity) and a chain of free blocks sliding on an inclined plane under the effect of gravity. For a class of non-monotonic friction functions, both systems display a large response to perturbations above a threshold, one of the main properties of excitable systems. This response induces the propagation of either solitary waves orfronts, depending on the model and parameter regime. We study these localized waves numerically and theoretically for a broad range of friction laws and parameter regimes, which leads to the analysis of nonlinear advance-delay differential equations. Phenomena of propagation failure and oscillations of the travelling wave profile are also investigated. The introduction of a piecewise linear friction function allows one to construct localized waves explicitly in the form of oscillatory integrals and to analyse some of their properties such as shape and wave speed. An existence proof for solitary waves is obtained for the excitable Burridge-Knopoff model in the weak coupling regime
Modèles de caméras et algorithmes pour la création de contenu video 3D by Sergi Pujades Rocamora( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

Des optiques à longue focale ont été souvent utilisées dans le cinéma 2D et la télévision, soit dans le but de se rapprocher de la scène, soit dans le but de produire un effet esthétique grâce à la déformation de la perspective. Toutefois, dans le cinéma ou la télévision 3D, l'utilisation de longues focales crée le plus souvent un "effet carton” ou de la divergence oculaire.Pour résoudre ce problème, les méthodes de l'état de l'art utilisent des techniques de transformation de la disparité, qui sont une généralisation de l'interpolation de points de vue.Elles génèrent de nouvelles paires stéréoscopiques à partir des deux séquences d'images originales. Nous proposons d'utiliser plus de deux caméras pour résoudre les problèmes non résolus par les méthodes de transformation de la disparité.Dans la première partie de la thèse, nous passons en revue les causes de la fatigue visuelle et de l'inconfort visuel lors de la visualisation d'un film stéréoscopique. Nous modélisons alors la perception de la profondeur de la vision stéréoscopique d'une scène filmée en 3D avec deux caméras, et projetée dans une salle de cinéma ou sur un téléviseur 3D. Nous caractérisons mathématiquement cette distorsion 3D, et formulons les contraintes mathématiques associées aux causes de la fatigue visuelle et de l'inconfort. Nous illustrons ces distorsions 3D avec un nouveau logiciel interactif, la “salle de projection virtuelle".Afin de générer les images stéréoscopiques souhaitées, nous proposons d'utiliser le rendu basé image. Ces techniques comportent généralement deux étapes. Tout d'abord, les images d'entrée sont transformées vers la vue cible, puis les images transformées sont mélangées. Les transformations sont généralement calculés à l'aide d'une géométrie intermédiaire (implicite ou explicite). Le mélange d'images a été largement étudié dans la littérature et quelques heuristiques permettent d'obtenir de très bonnes performances.Cependant, la combinaison des heuristiques proposées n'est pas simple et nécessite du réglage manuel de nombreux paramètres.Dans cette thèse, nous proposons une nouvelle approche bayésienne au problème de synthèse de nouveaux points de vue, basé sur un modèle génératif.Le modèle génératif proposé tient compte de l'incertitude sur la transformation d'image. Le formalisme bayésien nous permet de déduire l'énergie du modèle génératif et de calculer les images désirées correspondant au maximum a posteriori. La méthode dépasse en termes de qualité les techniques de l'état de l'art du rendu basé image sur des jeux de données complexes. D'autre part, les équations de l'énergie fournissent une formalisation des heuristiques largement utilisés dans les techniques de rendu basé image.Le modèle génératif proposé aborde également le problème de la super-résolution, permettant de rendre des images à une résolution plus élevée que les images de départ.Dans la dernière partie de cette thèse, nous appliquons la nouvelle technique de rendu au cas du zoom stéréoscopique et nous montrons ses performances
Sur les aspects théoriques et pratiques des compromis dans les problèmes d'allocation des ressources by Abhinav Srivastav( )

1 edition published in 2017 in French and held by 2 WorldCat member libraries worldwide

The content of this thesis is divided into two parts. The first part of the thesis deals with the study of heuristic based approaches for the approximation Pareto fronts. We propose a new Double Archive Pareto local search algorithm for solving multi-objective combinatorial optimization problems. We embed our technique into a genetic framework where our algorithm restarts with the set of new solutions formed by recombination and mutation of solutions found in the previous run. This method improves upon the existing Pareto local search algorithm for bi-objective and tri-objective quadratic assignment problem.In the second part of the thesis, we focus on non-preemptive scheduling algorithms. Here, we study the online problem of minimizing maximum stretch on a single machine. We present both positive and negative theoretical results. Then, we provide an optimally competitive semi-online algorithm. Furthermore, we study the problem of minimizing stretch on a single machine in a recently proposed rejection model. We show that there exists an O(1)-approximation ratio for minimizing average stretch. We also show that there exists an O(1)-approximation ratio for minimizing average flow time on a single machine. Lastly, we study the weighted average flow time minimization problem in online settings. We present a mathematical programming based framework that unifies multiple resource augmentation. Using the concept of duality, we show that there exists an O(1)-competitive algorithm for solving the weighted average flow time problem on unrelated machines. Furthermore, we proposed that this idea can be extended to minimizing l_k norms of weighted flow problem on unrelated machines
Etude de la direction du regard dans le cadre d'interactions sociales incluant un robot by Benoît Massé( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

Robots are more and more used in a social context. They are required notonly to share physical space with humans but also to interact with them. Inthis context, the robot is expected to understand some verbal and non-verbalambiguous cues, constantly used in a natural human interaction. In particular,knowing who or what people are looking at is a very valuable information tounderstand each individual mental state as well as the interaction dynamics. Itis called Visual Focus of Attention or VFOA. In this thesis, we are interestedin using the inputs from an active humanoid robot - participating in a socialinteraction - to estimate who is looking at whom or what.On the one hand, we want the robot to look at people, so it can extractmeaningful visual information from its video camera. We propose a novelreinforcement learning method for robotic gaze control. The model is basedon a recurrent neural network architecture. The robot autonomously learns astrategy for moving its head (and camera) using audio-visual inputs. It is ableto focus on groups of people in a changing environment.On the other hand, information from the video camera images are used toinfer the VFOAs of people along time. We estimate the 3D head poses (lo-cation and orientation) for each face, as it is highly correlated with the gazedirection. We use it in two tasks. First, we note that objects may be lookedat while not being visible from the robot point of view. Under the assump-tion that objects of interest are being looked at, we propose to estimate theirlocations relying solely on the gaze direction of visible people. We formulatean ad hoc spatial representation based on probability heat-maps. We designseveral convolutional neural network models and train them to perform a re-gression from the space of head poses to the space of object locations. Thisprovide a set of object locations from a sequence of head poses. Second, wesuppose that the location of objects of interest are known. In this context, weintroduce a Bayesian probabilistic model, inspired from psychophysics, thatdescribes the dependency between head poses, object locations, eye-gaze di-rections, and VFOAs, along time. The formulation is based on a switchingstate-space Markov model. A specific filtering procedure is detailed to inferthe VFOAs, as well as an adapted training algorithm.The proposed contributions use data-driven approaches, and are addressedwithin the context of machine learning. All methods have been tested on pub-licly available datasets. Some training procedures additionally require to sim-ulate synthetic scenarios; the generation process is then explicitly detailed
New MP-SoC profiling tools based on data mining techniques by Sofiane Lagraa( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

Miniaturization of electronic components has led to the introduction of complex electronic systems which are integrated onto a single chip with multiprocessors, so-called Multi-Processor System-on-Chip (MPSoC). The majority of recent embedded systems are based on massively parallel MPSoC architectures, hence the necessity of developing embedded parallel applications. Embedded parallel application design becomes more challenging: It becomes a parallel programming for non-trivial heterogeneous multiprocessors with diverse communication architectures and design constraints such as hardware cost, power, and timeliness. A challenge faced by many developers is the profiling of embedded parallel applications so that they can scale over more and more cores. This is especially critical for embedded systems powered by MPSoC, where ever demanding applications have to run smoothly on numerous cores, each with modest power budget. Moreover, application performance does not necessarily improve as more cores are added. Application performance can be limited due to multiple bottlenecks including contention for shared resources such as caches and memory. It becomes time consuming for a developer to pinpoint in the source code the bottlenecks decreasing the performance. To overcome these issues, in this thesis, we propose a fully three automatic methods which detect the instructions of the code which lead to a lack of performance due to contention and scalability of processors on a chip. The methods are based on data mining techniques exploiting gigabytes of low level execution traces produced by MPSoC platforms. Our profiling approaches allow to quantify and pinpoint, automatically the bottlenecks in source code in order to aid the developers to optimize its embedded parallel application. We performed several experiments on several parallel application benchmarks. Our experiments show the accuracy of the proposed techniques, by quantifying and pinpointing the hotspot in the source code
L'équation chargée de Klein-Gordon en métrique de De Sitter-Reissner-Nordström by Nicolas Besset( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Dans cette thèse, nous étudions l'équation chargée de Klein-Gordon dans l'espace-temps extérieur de De Sitter-Reissner-Nordström. Nous montrons en premier lieu la décroissance en temps de l'énergie locale aux moyens d'une expansion en termes de résonances du propagateur local. Nous construisons alors une théorie de la diffusion pour l'équation et donnons une interprétation géométrique dans un espace-temps étendu de la complétude asymptotique en termes de traces aux horizons. La décroissance exponentielle de l'énergie locale pour les solutions de l'équation d'onde dans cette extension jusque et au travers des horizons est obtenue harmonique par harmonique. Nous considérons ensuite une étude numérique d'une équation de type Klein-Gordon et introduisons un schéma qui approche les solutions avec une erreur que l'on peut contrôler. Finalement,nous proposons une méthode numérique pour localiser les résonances à basse fréquence.Beaucoup de résultats dans cette thèse sont des prérequis à la construction de l'état de Unruh satisfaisant la propriété de Hadamard pour l'équation de Klein-Gordon chargée dans l'espace-temps extérieur de De Sitter-Reissner-Nordström
A Calculus of Complex Zonotopes for Invariance and Stability Verification of Hybrid Systems by Santosh Arvind Adimoolam( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

Le calcul des ensembles atteignables est une approche de facto utilisée dans de nombreuses méthodes de vérification formelles pour les systèmes hybrides. Mais le calcul exact de l'ensemble atteignable est un problème insurmontable pour de nombreux types de systèmes hybrides, soit en raison de l'indécidabilité ou de la complexité de calcul élevée. Alternativement, beaucoup de recherches ont été axées sur l'utilisation de représentations d'ensembles qui peuvent être manipulées efficacement pour calculer une surestimation suffisamment précise de l'ensemble atteignable. Les zonotopes sont une représentation utile de l'ensemble dans l'analyse de l'accessibilité en raison de leur fermeture et de leur faible complexité pour le calcul de la transformation linéaire et des opérations sommaires de Minkowski. Mais pour approximer les ensembles de temps non bornés atteignables par des invariants positifs, les zonotopes ont l'inconvénient suivant. L'efficacité d'une représentation d'ensemble pour calculer un invariant positif dépend de l'encodage efficace des directions de convergence des états vers un équilibre. Dans un système hybride affine, certaines des directions de convergence peuvent être codées par les vecteurs propres à valeur complexe des matrices de transformation. Mais la représentation zonotopique ne peut pas exploiter la structure propre complexe des matrices de transformation car elle n'a que des générateurs à valeur réelle.Par conséquent, nous étendons les zonotopes réels au domaine de valeur complexe d'une manière qui peut capturer la contraction le long de vecteurs évalués complexes. Cela donne une nouvelle représentation d'ensemble appelée zonotope complexe. Géométriquement, les zonotopes complexes représentent une classe plus large d'ensembles qui comprennent des ensembles non polytopiques ainsi que des zonotopes polytopiques. Ils conservent le mérite des zonotopes réels que nous pouvons effectuer efficacement la transformation linéaire et les opérations sommaires de Minkowski et calculer la fonction de support. De plus, nous montrons qu'ils peuvent capturer la contraction le long de vecteurs propres complexes. De plus, nous développons des approximations traitables par calcul pour la vérification d'inclusion et l'intersection avec des demi-espaces. En utilisant ces opérations sur des zonotopes complexes, nous développons des programmes convexes pour vérifier les propriétés d'invariance linéaire des systèmes hybrides affines à temps discret et la stabilité exponentielle des systèmes impulsifs linéaires. Nos expériences sur certains exemples de benchmarks démontrent l'efficacité des techniques de vérification basées sur des zonotopes complexes
Modélisation 4D à partir de plusieurs caméras by Antoine Letouzey( )

1 edition published in 2012 in French and held by 2 WorldCat member libraries worldwide

Nowadays mutli-camera setups allow the acquisition of both color image streams and 3D models streams. Thus permitting the study of complex scenes. These scenes can be composed of any number of non-rigid objects moving freely. One of the main limitations of such data is its lack of temporal coherence between two consecutive observations. The work presented in this thesis consider this issue and propose novel methods to recover this temporal coherence. First we present a new approach that computes at each frame a dense motion field over the surface of the scene (i.e. Scene Flow), gathering both photometric and geometric information. We then extend this approach to hybrid multi-camera setups composed of color and depth sensor (such as the kinect sensor). Second, we introduce "Progressive Shape Models", a new method that allows to gather topology information over a complete sequence of 3D models and incrementally build a complete and coherent surface template
From lexical towards contextualized meaning representation by Diana-Nicoleta Popa( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Les représentations des mots sont à la base du plupart des systèmes modernes pour le traitement automatique du langage, fournissant des résultats compétitifs. Cependant, d'importantes questions se posent concernant les défis auxquels ils sont confrontés pour faire face aux phénomènes complexes du langage naturel et leur capacité à saisir la variabilité du langage naturel.Pour mieux gérer les phénomènes complexes du langage, de nombreux travaux ont été menées pour affiner les représentations génériques de mots ou pour créer des représentations spécialisées. Bien que cela puisse aider à distinguer la similarité sémantique des autres types de relations sémantiques, il peut ne pas suffire de modéliser certains types de relations, telles que les relations logiques d'implication ou de contradiction.La première partie de la thèse étudie l'encodage de la notion d'implication textuelle dans un espace vectoriel en imposant l'inclusion d'information. Des opérateurs d'implication sont ensuite développées et le cadre proposé peut être utilisé pour réinterpréter un modèle existant de la sémantique distributionnelle. Des évaluations sont fournies sur la détection d'hyponymie en tant que une instance d'implication lexicale.Un autre défi concerne la variabilité du langage naturel et la nécessité de désambiguïser les unités lexicales en fonction du contexte dans lequel elles apparaissent. Les représentations génériques de mots ne réussissent pas à elles seules, des architectures différentes étant généralement utilisées pour aider à la désambiguïsation. Étant donné que les représentations de mots sont construites à partir de statistiques de cooccurrence sur de grands corpus et qu'elles reflètent ces statistiques, elles fournissent une seule représentation pour un mot donné, malgré ses multiples significations. Même dans le cas de mots monosémiques, cela ne fait pas la distinction entre les différentes utilisations d'un mot en fonction de son contexte.Dans ce sens, on pourrait se demander s'il est possible d'exploiter directement les informations linguistiques fournies par le contexte d'un mot pour en ajuster la représentation. Ces informations seraient-elles utiles pour créer une représentation enrichie du mot dans son contexte? Et si oui, des informations de nature syntaxique peuvent-elles aider au processus ou le contexte local suffit? On peux donc examiner si les représentations génériques des mots et la manière dont elles se combinent peut suffire à construire des représentations plus précises.Dans la deuxième partie de la thèse, nous étudions une façon d'incorporer la connaissance contextuelle dans les représentations de mots eux-mêmes, en exploitant les informations provenant de l'analyse de dépendance de phrase ainsi que les informations de voisinage local. Nous proposons des représentations de mots contextualisées sensibles à la syntaxe (SATokE) qui capturent des informations linguistiques spécifiques et encodent la structure de la phrase dans leurs représentations. Cela permet de passer des représentations de type générique (invariant du contexte) à des représentations spécifiques (tenant compte du contexte). Alors que la syntaxe était précédemment considérée pour les représentations de mots, ses avantages n'ont peut-être pas été entièrement évalués au-delà des modèles qui exploitent ces informations à partir de grands corpus.Les représentations obtenues sont évaluées sur des tâches de compréhension du langage naturel: classification des sentiments, détection de paraphrases, implication textuelle et analyse du discours. Nous démontrons empiriquement la supériorité de ces représentations par rapport aux représentations génériques et contextualisées des mots existantes.Le travail proposé dans la présente thèse contribue à la recherche dans le domaine de la modélisation de phénomènes complexes tels que l'implication textuelle, ainsi que de la variabilité du langage par le biais de la proposition de représentations contextualisés
Multiplication matricielle efficace et conception logicielle pour la bibliothèque de calcul exact LinBox by Brice Boyer( )

1 edition published in 2012 in French and held by 2 WorldCat member libraries worldwide

We first expose in this memoir efficient matrix multiplication techniques. We set up new schedules that allow us to minimize the extra memory requirements during a Winograd-style matrix multiplication, while keeping the complexity competitive. In order to get them, we develop external tools (pebble game), tight complexity computations and new hybrid algorithms. Then we use parallel technologies (multicore CPU and GPU) in order to accelerate efficiently the sparse matrix--dense vector multiplication (SpMV), crucial to /blackbox/ algorithms and we set up new hybrid formats to store them. Finally, we establish generic design methods focusing on efficiency, especially via building block conceptions or self-optimization. We also propose tools for improving and standardizing code quality in order to make it more sustainable and more robust. This is in particular applied to the LinBox computer algebra library
Autour de l'analyse géométrique. 1) Comportement au bord des fonctions harmoniques 2) Rectifiabilité dans le groupe de Heisenberg by Camille Petit( )

1 edition published in 2012 in French and held by 2 WorldCat member libraries worldwide

Dans cette thèse, nous nous intéressons à deux thèmes d'analyse géométrique. Le premier concerne le comportement asymptotique des fonctions harmoniques en relation avec la géométrie, sur des graphes et des variétés. Nous étudions des critères de convergence au bord des fonctions harmoniques, comme celui de la bornitude non-tangentielle, de la finitude de l'énergie ou encore de la densité de l'énergie. Nous nous plaçons pour cela dans différents cadres comme les graphes hyperboliques au sens de Gromov, les variétés hyperboliques au sens de Gromov, les graphes de Diestel-Leader ou encore dans un cadre abstrait pour obtenir des résultats pour les points du bord minimal de Martin. Les méthodes probabilistes utilisées exploitent le lien entre les fonctions harmoniques et les martingales. Le deuxième thème abordé dans cette thèse concerne l'étude des propriétés des ensembles rectifiables de dimension 1 dans le groupe de Heisenberg, en relation avec des opérateurs d'intégrales singulières. Nous étendons à ce contexte sous-riemannien une partie des résultats de la théorie des ensembles uniformément rectifiables de David et Semmes. Nous obtenons notamment un théorème géométrique du voyageur de commerce qui fournit une condition pour qu'un ensemble Ahlfors-régulier du premier groupe de Heisenberg soit contenu dans une courbe Ahlfors-régulière
Lemmes de zéros et distribution des valeurs des fonctions méromorphes by Pierre Villemot( )

1 edition published in 2018 in French and held by 2 WorldCat member libraries worldwide

This PhD thesis is about some arithmetic properties of meromorphic functions of one variable.In chapter 3, we define the transcendental measures for holomorphic and meromorphic functions on a regular domain of C, then we obtain upper bounds of these measures in terms of the distribution of small values of the function.Thanks to the Nevanlinna and Ahlfors theories, we study in chapter 4 the distribution of small values of some classes of meromorphic functions on D or C in order to obtain explicit upper bounds of transcendental measures.The main application of this work is the demonstration of new polynomial zero estimates for large classes of meromorphic functions, in particular for Weierstrass functions and fuchsian functions.In chapter 5, we prove that polynomial zero estimates lead to logarithmic bounds of the number of algebraic points of bounded degree and height contained in the graph of the function
Processing Geometric Models of Assemblies to Structure and Enrich them with Functional Information by Ahmad Shahwan( )

1 edition published in 2014 in French and held by 2 WorldCat member libraries worldwide

The digital mock-up (DMU) of a product has taken a central position in the product development process (PDP). It provides the geometric reference of the product assembly, as it defines the shape of each individual component, as well as the way components are put together. However, observations show that this geometric model is no more than a conventional representation of what the real product is. Additionally, and because of its pivotal role, the DMU is more and more required to provide information beyond mere geometry to be used in different stages of the PDP. An increasingly urging demand is functional information at different levels of the geometric representation of the assembly. This information is shown to be essential in phases such as geometric pre-processing for finite element analysis (FEA) purposes. In this work, an automated method is put forward that enriches a geometric model, which is the product DMU, with function information needed for FEA preparations. To this end, the initial geometry is restructured at different levels according to functional annotation needs. Prevailing industrial practices and representation conventions are taken into account in order to functionally interpret the pure geometric model that provides a start point to the proposed method
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.95 (from 0.92 for Environnem ... to 0.96 for T-variéte ...)

Alternative Names
École doctorale 217

ED 217

ED MSTII (Grenoble)

ED217

EDMSTII

Languages
English (12)

French (10)

Spanish (2)