WorldCat Identities

Laboratoire Jean Kuntzmann (Grenoble)

Overview
Works: 204 works in 209 publications in 2 languages and 373 library holdings
Roles: Other
Publication Timeline
.
Most widely held works by Laboratoire Jean Kuntzmann (Grenoble)
Invariance and symbolic control of cooperative systems for temperature regulation in intelligent buildings by Pierre-Jean Meyer( )

2 editions published in 2015 in English and held by 3 WorldCat member libraries worldwide

This thesis provides new control strategies that deal with the heterogeneous and nonlinear dynamics describing the temperature regulation in buildings to obtain a tradeoff between comfort and energy efficiency. We thus focus on the robust control of cooperative systems with bounded disturbances. We first solve this problem with the notion of robust controlled invariant interval, which describes a set where the state can be maintained for any value of the disturbances. A second approach provides dedicated symbolic methods to synthesize a discrete controller on a finite abstraction of the system, realizing safety specifications combined with a performance optimization. We first present a centralized symbolic method using the system dynamics provided by the physical model. To address its limitation in terms of scalability, a compositional approach is considered, where the symbolic abstraction and synthesis methods are applied to partial descriptions of the system under the assume-guarantee obligation that the safety specification is realized for all uncontrolled states. In the final part, the proposed controllers are combined and evaluated on the temperature regulation for an experimental building equipped with UnderFloor Air Distribution
Modélisation dynamique d'un assemblage de floes rigides by Matthias Rabatel( )

1 edition published in 2015 in French and held by 2 WorldCat member libraries worldwide

In this thesis, we present a model describing the dynamics of a population of ice floes with arbitrary shapes and sizes, which are exposed to atmospheric and oceanic skin drag. The granular model presented is based on simplified momentum equations for ice floe motion between collisions and on the resolution of linear complementarity problems to deal with ice floe collisions. Between collisions, the motion of an individual ice floe satisfies the linear and angular momentum conservation equations, with classical formula applied to account for atmospheric and oceanic skin drag. To deal with collisions, before they lead to interpenetration, we included a linear complementarity problem based on the Signorini condition and Coulombs law. The nature of the contact is described through a constant coefficient of friction, as well as a coefficient of restitution describing the loss of kinetic energy during the collision. In the present version of our model, this coefficient is fixed. The model was validated using data obtained from the motion of interacting artificial wood floes in a test basin. The results of simulations comprising few hundreds of ice floes of various shapes and sizes, exposed to different forcing scenarios, and under different configurations, are also discussed. They show that the progressive clustering of ice floes as the result of kinetic energy dissipation during collisions is well captured, and suggest a collisional regimes of floe dispersion at small scales, different from a large-scale regime essentially driven by wind forcing
Efficient preconditioning method for the CARP-CG iterative solver for the solution of the frequency-domain visco-elastic wave equation by Okba Hamitou( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

La résolution de l'équation des ondes acoustiques et élastiques en 3D dans le domaine fréquentiel représente un enjeu majeur dans le cadre de l'inversion des formes d'ondes pour l'imagerie haute résolution de cibles crustales (Virieux, 2009). Après discrétisation, ce problème revient à résoudre un système linéaire à valeurs complexes, creux, de grande taille non défini et mal conditionné. Les méthodes d'inversion sismique requièrent la solution de ce problème pour l'évaluation du problème direct pour un grand nombre de sources (plusieurs milliers voir dizaines de milliers). Dans l'approximation acoustique, les méthodes directes sont privilégiées. Cependant, le coût mémoire de ces méthodes les rendent aujourd'hui inutilisables pour résoudre les problèmes élastiques 3D. En raison de leur plus faible coût mémoire, les méthodes itératives pour les équations en fréquence peuvent être considérées pour l'élastodynamique. Cependant, une convergence rapide passe par des préconditionneurs adaptés pour les solveurs itératifs. Par ailleurs, les stratégies pour résoudre des systèmes linéaires avec des seconds membres multiples ne sont pas aussi efficaces que pour les méthodes directes. La modélisation dans le domaine temporelle quant à elle présente une importante complexité en coût de calcul et cette complexité croît linéairement avec le nombre de sources.Dans cette thèse, l'approche utilisant un solveur itératif est considérée. Le solveur itératif CARP-CG introduit par Gordon (2010) est considéré. Cette méthode est basée sur la méthode de Kaczmarz qui transforme un système linéaire mal conditionné en un système hermitien, positif et qui peut être résolu en utilisant les méthodes du type gradient conjugué (CG). Dans des configurations de forts contrastes et hétérogénéités, ce solveur s'est révélé être extrêmement robuste alors que les méthodes itératives standards basées sur les sous-espaces de Krylov telles que GMRES et BiCGSTAB nécessitent l'utilisation d'un préconditionneur pour converger (Li, 2015). Malgré les bonnes propriétés de la méthode CARP-CG, le nombre d'itérations nécessaires pour atteindre une précision suffisante reste néanmoins élevé. Je présente alors une stratégie de préconditionnement adaptée au problème de propagation des ondes et à la méthode CARP-CG. Ce préconditionneur est un inverse creux et approché d'un opérateur de propagation des ondes fortement amorti. Le calcul du préconditionneur est réalisé grâce un algorithme massivement parallèle pour les architectures à mémoire distribuée.La méthode développée est appliquée à des cas d'étude réalistes. Les applications sont faites sur des modèles synthétiques 2D dans l'approximation visco-acoustique pour des fréquences allant jusqu'à 40 Hz puis dans l'approximation élastique pour des fréquences allant jusqu'à 20 Hz. Ces études montrent l'efficacité de la méthode CARP-CG munie de la stratégie de préconditionnement. Le nombre d'itérations est fortement réduit (jusqu'à un facteur 9) permettant d'améliorer considérablement la complexité de la méthode CARP-CG. Des gains en temps de calcul allant jusqu'à un facteur 3.5 sont ainsi obtenus. La méthode est ensuite appliquée à un cas 3D synthétique et réaliste dans l'approximation visco-élastique pour des fréquences allant de 1.25 Hz à 7.5 Hz. Des résultats encourageants sont obtenus. Munie du préconditioneur, la méthode CARP-CG permet de résoudre ces systèmes linéaires deux fois plus rapidement.La stratégie de préconditionnement implique la nécessité de plus grandes ressources en mémoire pour le solveur itératif; cependant, elles ne constituent pas une limitation pour la méthode et restent très négligeables devant celles requises par les solveurs directs. La principale limitation réside dans le temps de calcul qui demeure assez significatif. Cependant, cette méthode constitue un solveur compétitif comparé aux autres solveurs en temps et direct utilisés aujourd'hui dans le cadre de l'inversion des formes d'ondes
Téléprésence, immersion et interactions pour le reconstruction 3D temps-réel by Benjamin Petit( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

Online immersive and collaborative 3D environments are emerging very fast. They raise the issues of sensation of presence within virtual worlds, immersion and interaction capabilities. Multi-camera 3D systems allow to extract geometrical information (3D model) of the observed scene using the photometric information. It enables calculation of a numerical textured model in real-time, which is then used to ensure the user's presence in cyberspace. In this thesis we have studied how to pair the ability of presence, obtained from such a system, with visual immersion and co-located interactions. This led to the realization of an application that combines a head mounted display, an optical tracking system and a multi-camera system. Thus, the user can view his 3D model correctly aligned with his own body and mixed with virtual objects. We also have implemented an experimental telepresence application featuring three sites (Bordeaux, Grenoble, Orleans) that allows multiple users to meet in 3D and collaborate remotely. Textured 3D model gives a very strong sense of presence of each other and strengthens the physical interactions, thanks to body language and facial expressions. Finally, we studied how to extract 3D velocity information from the cameras images; using 2D optical flow and 2D and 3D correspondences, we can estimate the dense displacement of the 3D model. This data extend the interaction capabilities by enriching the 3D model
Suivi multi-locuteurs avec information audio-visuel pour la perception du robot by Yutong Ban( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Robot perception plays a crucial role in human-robot interaction (HRI). Perception system provides the robot information of the surroundings and enables the robot to give feedbacks. In a conversational scenario, a group of people may chat in front of the robot and move freely. In such situations, robots are expected to understand where are the people, who are speaking, or what are they talking about. This thesis concentrates on answering the first two questions, namely speaker tracking and diarization. We use different modalities of the robot's perception system to achieve the goal. Like seeing and hearing for a human-being, audio and visual information are the critical cues for a robot in a conversational scenario. The advancement of computer vision and audio processing of the last decade has revolutionized the robot perception abilities. In this thesis, we have the following contributions: we first develop a variational Bayesian framework for tracking multiple objects. The variational Bayesian framework gives closed-form tractable problem solutions, which makes the tracking process efficient. The framework is first applied to visual multiple-person tracking. Birth and death process are built jointly with the framework to deal with the varying number of the people in the scene. Furthermore, we exploit the complementarity of vision and robot motorinformation. On the one hand, the robot's active motion can be integrated into the visual tracking system to stabilize the tracking. On the other hand, visual information can be used to perform motor servoing. Moreover, audio and visual information are then combined in the variational framework, to estimate the smooth trajectories of speaking people, and to infer the acoustic status of a person- speaking or silent. In addition, we employ the model to acoustic-only speaker localization and tracking. Online dereverberation techniques are first applied then followed by the tracking system. Finally, a variant of the acoustic speaker tracking model based on von-Mises distribution is proposed, which is specifically adapted to directional data. All the proposed methods are validated on datasets according to applications
Représentations efficaces de l'apparence sous-pixel by Guillaume Loubet( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

We address the problem of rendering extremely complex virtualscenes with large amounts of detail. We focuson high-end off-line rendering algorithms based on path tracing thatare intensively used in the special effects and 3D animation industries.The large amounts of detail required for creating believable virtual worldsraise important efficiency problemsthat paralyze production rendering pipelines andgreatly complicate the work of 3D artists.We introduce new algorithms for prefilteringcomplex 3D assets while preserving their appearanceat all scales, in order to reduce loading times,ray intersection costs, shading costs and Monte Carlo noise,without lowering the quality of rendered frames.Our main contributions are a new hybrid LODapproach that combines the benefits ofmeshes and volumetric representationsfor prefiltering complex 3D assets,as well as a new approach for prefilteringhigh-resolution heterogeneous participatingmedia
Apparence matérielle : représentation et rendu photo-réaliste by Mahdi Mohammadbagher( )

1 edition published in 2012 in French and held by 2 WorldCat member libraries worldwide

This thesis presents some advances in efficient representation of material appearance in a lighting simulation. The scope of this thesis is two-fold: an interactive shading algorithm to render measured reflectance with dynamic geometry using frequency analysis of light transport and hierarchical shading and up-sampling in deferred shading context, and a new normal distribution function for the Cook-Torrance micro-facet BRDF model, along with a new shadowing and masking function and a generalization of Schlick's approximation of the Fresnel term. In the first part, we introduce a real-time frequency analysis of light transport framework that allows us to estimate the bandwidth and variance of the shading integrand. The bandwidth and variance are a function of frequencies in the illumination, distance traveled by light, BRDF and texture, and the geometry configuration (curvature). We use this information to under-sample the image, and also use an adaptive number of samples for shading. We devise a single-pass hierarchical shading and up-sampling scheme to assemble an image out of the sparsely shaded image pixels. We extend our interactive technique to use pre-convolved shading for real-time performance. We also take advantage of the bandwidth information to perform multi-sample anti-aliasing in deferred shading by subsampling only a small portion of image pixels whose bandwidth is smaller than 1 pixel^-1. In the second part, we propose a new distribution function for the Cook-Torrance micro-facet BRDF, based on our observations on the reflectance measurements. We isolate the distribution components of the reflectance data and directly observe that existing distribution functions are insufficient. Then we devise the Shifted Gamma Distribution (SGD) fitting more accurately to the data. We derive the shadowing and masking function from the distribution. We observe that not all materials have the Fresnel behavior expected by Schlick's approximation. Hence, we generalize the Schlick's approximation to more accurately fit the model to the measurements. We introduce a two-step fitting approach, that fits each RGB channel separately -- accounting for wave-length dependent effects. We show that our shading model outperforms existing models and accurately represents a wider range of materials from diffuse to glossy and highly specular materials
Champs aléatoires de Markov cachés pour la cartographie du risque en épidémiologie by Lamiae Azizi( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

The analysis of the geographical variations of a disease and their representation on a mapis an important step in epidemiology. The goal is to identify homogeneous regions in termsof disease risk and to gain better insights into the mechanisms underlying the spread of thedisease. We recast the disease mapping issue of automatically classifying geographical unitsinto risk classes as a clustering task using a discrete hidden Markov model and Poisson classdependent distributions. The designed hidden Markov prior is non standard and consists of avariation of the Potts model where the interaction parameter can depend on the risk classes.The model parameters are estimated using an EM algorithm and the mean field approximation. This provides a way to face the intractability of the standard EM in this spatial context,with a computationally efficient alternative to more intensive simulation based Monte CarloMarkov Chain (MCMC) procedures.We then focus on the issue of dealing with very low risk values and small numbers of observedcases and population sizes. We address the problem of finding good initial parameter values inthis context and develop a new initialization strategy appropriate for spatial Poisson mixturesin the case of not so well separated classes as encountered in animal disease risk analysis.We illustrate the performance of the proposed methodology on some animal epidemiologicaldatasets provided by INRA
Vers un suivi robuste d'objets visuels : sélection de propositions et traitement des occlusions by Yang Hua( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

In this dissertation we address the problem of visual object tracking, whereinthe goal is to localize an object and determine its trajectory over time. Inparticular, we focus on challenging scenarios where the object undergoessignificant transformations, becomes occluded or leaves the field of view. Tothis end, we propose two robust methods which learn a model for the object ofinterest and update it, to reflect its changes over time.Our first method addresses the tracking problem in the context of objectsundergoing severe geometric transformations, such as rotation, change in scale.We present a novel proposal-selection algorithm, which extends the traditionaldiscriminative tracking-by-detection approach. This method proceeds in twostages -- proposal followed by selection. In the proposal stage, we compute acandidate pool that represents the potential locations of the object byrobustly estimating the geometric transformations. The best proposal is thenselected from this candidate set to localize the object precisely usingmultiple appearance and motion cues.Second, we consider the problem of model update in visual tracking, i.e.,determining when to update the model of the target, which may become occludedor leave the field of view. To address this, we use motion cues to identify thestate of the object in a principled way, and update the model only when theobject is fully visible. In particular, we utilize long-term trajectories incombination with a graph-cut based technique to estimate parts of the objectsthat are visible.We have evaluated both our approaches extensively on several trackingbenchmarks, notably, recent online tracking benchmark and the visual objecttracking challenge datasets. Both our approaches compare favorably to thestate of the art and show significant improvement over several other recenttrackers. Specifically, our submission to the visual object tracking challengeorganized in 2015 was the winner in one of the competitions
Croquis interactifs pour l'enseignement de l'anatomie by Adeline Pihuit( Book )

2 editions published in 2010 in French and held by 2 WorldCat member libraries worldwide

Since a few years, numerical technologies have become a new pedagogical tool which is more and more used by professors: CD-Roms, interactive DVDs or even 3D simulation software offer new resources as well as new points of view on traditional teaching. Of course, anatomists try to exploit these new multimedia supports in their teaching. Meanwhile, medical imaging techniques have made significant progress and now provide detailed images of the human body. Therefore, these data are more and more used by professors, whose goal is to add a realistic aspect to their courses. Despite the pedagogical benefit of hand-drawn sketches on a blackboard, these anatomical sketches cannot exhibit such a realistic aspect. The goal of our work is to provide anatomists with a new tool for 3D modeling of organic structures, which exploits both their 2D anatomical sketch know-how, and the advantages of modern 3D technologies. In this context, we are led to explore three complementary approaches for 3D modeling form a set of parallel cross-section images such as MRI and 3D modeling from a single sketch representing a single view of complex, overlapped and non -planar structures such as vascular systems. The combination of these three approaches results in a new system for teaching anatomy that eases the modeling of various anatomical structures, depending on their specificities
Machine Learning Methods for Visual Object Detection by Sabit ul Hussain( )

1 edition published in 2011 in English and held by 2 WorldCat member libraries worldwide

The goal of this thesis is to develop better practical methods for detecting common object classes in real world images. We present a family of object detectors that combine Histogram of Oriented Gradient (HOG), Local Binary Pattern (LBP) and Local Ternary Pattern (LTP) features with efficient Latent SVM classifiers and effective dimensionality reduction and sparsification schemes to give state-of-the-art performance on several important datasets including PASCAL VOC2006 and VOC2007, INRIA Person and ETHZ. The three main contributions are as follows. Firstly, we pioneer the use of Local Ternary Pattern features for object detection, showing that LTP gives better overall performance than HOG and LBP, because it captures both rich local texture and object shape information while being resistant to variations in lighting conditions. It thus works well both for classes that are recognized mainly by their structure and ones that are recognized mainly by their textures. We also show that HOG, LBP and LTP complement one another, so that an extended feature set that incorporates all three of them gives further improvements in performance. Secondly, in order to tackle the speed and memory usage problems associated with high-dimensional modern feature sets, we propose two effective dimensionality reduction techniques. The first, feature projection using Partial Least Squares, allows detectors to be trained more rapidly with negligible loss of accuracy and no loss of run time speed for linear detectors. The second, feature selection using SVM weight truncation, allows active feature sets to be reduced in size by almost an order of magnitude with little or no loss, and often a small gain, in detector accuracy. Despite its simplicity, this feature selection scheme outperforms all of the other sparsity enforcing methods that we have tested. Lastly, we describe work in progress on Local Quantized Patterns (LQP), a generalized form of local pattern features that uses lookup table based vector quantization to provide local pattern style pixel neighbourhood codings that have the speed of LBP/LTP and some of the flexibility and power of traditional visual word representations. Our experiments show that LQP outperforms all of the other feature sets tested including HOG, LBP and LTP
Evaluation de la qualité de vidéos panoramiques synthétisées by Sandra Nabil mahrous yacoub( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

La création des vidéos panoramiques de haute qualité pour des contenus immersifs en VR est généralement faite à l'aide d'un appareil doté de plusieurs caméras couvrant une scène cible. Malheureusement, cette configuration introduit à la fois des artefacts spatiaux et temporels dus à la différence entre les centres optiques et à la synchronisation imparfaite. Les mesures de qualité d'image traditionnelles ne peuvent pas être utilisées pour évaluer la qualité de ces vidéos, en raison de leur incapacité à capturer des distorsions géométriques. Dans cette thèse, nous proposons des méthodes pour l'évaluation objective des vidéos panoramiques basées sur le flux optique et la saillance visuelle. Nous validons cette métrique avec une étude centrée sur l'homme qui combine l'annotation d'erreurs percues et l'eye-tracking.Un défi important pour mesurer la qualité des vidéos panoramiques est le manque d'une vérité-terrain. Nous avons étudié l'utilisation des vidéos originales comme référence pour le panorama de sortie. Nous notons que cette approche n'est pas directement applicable, car chaque pixel du panorama final peut avoir une à N sources correspondant à N vidéos d'entrée avec des régions se chevauchant. Nous montrons que ce problème peut être résolu en calculant l'écart type des déplacements de tous les pixels sources à partir du déplacement du panorama en tant que mesure de la distorsion. Cela permet de comparer la différence de mouvement entre deux images données dans les vidéos originales et le mouvement dans le panorama final. Les cartes de saillance basées sur la perception humaine sont utilisées pour pondérer la carte de distorsion pour un filtrage plus précis.Cette méthode a été validée par une étude centrée sur l'homme utilisant une expérience empirique. L'expérience visait à déterminer si les humains et la métrique d'évaluation détectaient et mesuraient les mêmes erreurs, et à explorer quelles erreurs sont les plus importantes pour les humains lorsqu'ils regardent une vidéo panoramique.Les méthodes décrites ont été testées et validées et fournissent des résultats intéressants en ce qui concerne la perception humaine pour les mesures de qualité. Ils ouvrent également la voie à de nouvelles méthodes d'optimisation de l'assemblage vidéo, guidées par ces mesures de qualité
Transferts d'apparence en espace image basés sur des propriétés texturelles by Benoit Arbelot( )

1 edition published in 2017 in French and held by 2 WorldCat member libraries worldwide

Les techniques de manipulation de l'apparence d'une image sont très utilisées dans de nombreux domaines comme la photographie, la biologie, l'astronomie ou le spectacle vivant. L'apparence d'une image dépend de ses couleurs et textures, mais aussi des informations 3D perçues comme les formes, les matériaux et l'éclairage. Ces caractéristiques créent aussi une atmosphère et une émotion spécifique à l'image, qui fait aussi partie de son apparence. Le but des techniques de manipulation en espace image est de modifier les couleurs et les textures pour modifier les formes, matériaux et illumination perçus, et de là éventuellement modifier l'atmosphère de l'image.Les méthodes de transfert d'apparence sont une classe spécifique de techniques de manipulation visant à rendre le processus plus intuitif en calculant automatiquement la modification à apporter à l'image. Pour ce faire, elles se basent sur une image supplémentaire fournie par l'utilisateur et représentant l'apparence désirée.Dans cette thèse, nous étudions le transfert d'apparence en espace image basé sur des propriétés texturelles. Les textures étant une partie intégrante de l'apparence, guider les transferts d'apparence par de l'information texturelle est une option attrayante. Nous présentons d'abord une technique de filtrage de descripteurs de texture pour mieux préserver les structures de l'image et les transitions entre textures. Nous utilisons ensuite ce filtrage couplé à différents descripteurs de texture pour effectuer un transfert de couleur, une colorisation et un transfert de texture localement, guidés par la texture
Contributions à l'apprentissage grande échelle pour la classification d'images by Zeynep Akata( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

La construction d'algorithmes classifiant des images à grande échelle est devenue une t^ache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles non-etiquetées présentes sur Internet. L'objetif est de classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complexe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations à l'état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans un cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "classement", "classement avec pondération" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt prématuré de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". Notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles
Conception de contrôleurs événementiels pour certaines classes de systèmes dynamiques by Fairouz Zobiri( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

La commande événementielle offre une alternative prometteuse à la commande périodique classique, qui est considérée comme peu économe vis-à-vis des ressources. Contrairement à la commande classique, la commande événementielle propose de passer d'une loi de commande en temps continu à une loi de commande numérique à travers un échantillonnage non-uniforme. Dans ce cas, une nouvelle valeur de la loi de commande n'est calculée que lorsque la réponse du système est inadmissible. En revanche, la valeur de la loi de commande est maintenue constante si la réponse est satisfaisante. Dans cette thèse, nous explorons des moyens de réduire le nombre de mise à jour de la loi de commande, et de rallonger les intervalles de temps entre les mises à jour.Dans le cas des systèmes linéaires, nous présentons un algorithme de stabilisation dans lequel nous relaxons les conditions de stabilité sur la fonction de Lyapunov du système. Pour induire moins d'échantillons, on requiert uniquement que cette fonction soit maintenue sous un seuil décroissant. Le calcul des paramètres optimaux du seuil est transformé en problème de valeurs propres généralisées. Ensuite, cette approche est étendue aux systèmes dits switched, et une version self-triggered est proposée. Nous traitons également le problème de suivi de trajectoire par une commande événementielle. Enfin, dans le cas du contrôle des systèmes non-linéaires, nous proposons d'utiliser une analyse de contraction des trajectoires, et ce à cause de la difficulté de trouver une fonction de Lyapunov pour ces systèmes
Visualisation de champs scalaires guidée par la topologie by Leo Allemand Giorgis( )

1 edition published in 2016 in French and held by 2 WorldCat member libraries worldwide

Les points critiques d'une fonction scalaire (minima, points col et maxima) sont des caractéristiques importantes permettant de décrire de gros ensembles de données, comme par exemple les données topographiques. L'acquisition de ces données introduit souvent du bruit sur les valeurs. Un grand nombre de points critiques sont créés par le bruit, il est donc important de supprimer ces points critiques pour faire une bonne analyse de ces données. Le complexe de Morse-Smale est un objet mathématique qui est étudié dans le domaine de la Visualisation Scientifique car il permet de simplifier des fonctions scalaires tout en gardant les points critiques les plus importants de la fonction étudiée, ainsi que les liens entre ces points critiques. Nous proposons dans cette thèse une méthode permettant de construire une fonction qui correspond à un complexe de Morse-Smale d'une fonction définie sur R^2 après suppression de paires de points critiques dans celui-ci.Tout d'abord, nous proposons une méthode qui définit une surface interpolant des valeurs de fonction aux points d'une grille de façon monotone, c'est-à-dire en ne créant pas de point critique. Cette surface est composée d'un ensemble de patchs de Bézier triangulaires cubiques assemblés de telle sorte que la surface soit globalement C^1. Nous donnons des conditionssuffisantes sur les valeurs d fonction et les valeurs de dérivées partielles aux points de la grille afin que la surface soit croissante dans la direction (x+y). Il n'est pas évident de créer des valeurs de dérivées partielles en chaque point de la grille vérifiant ces conditions. C'est pourquoi nous introduisons deux algorithmes : le premier permet de modifier des valeurs de dérivées partielles données en entrée afin que celles-ci vérifient les conditions et le second calcule des valeurs de dérivées partielles à partir des valeurs de fonctions aux points de la grille.Ensuite, nous décrivons une méthode de reconstruction de champs scalaires à partir de complexes de Morse-Smale simplifiés. Pour cela, nous commençons par approximer les 1-cellules (les liens entre les points critiques dans le complexe de Morse-Smale, ceux-ci sont décrits par des polylignes) par des courbes composées de courbes de Bézier cubiques. Nous décrivons ensuite comment notre interpolation monotone de valeurs aux points d'une grille est utilisée pour construire des surfaces monotones interpolant les courbes construites précédemment. De plus, nous montrons que la fonction reconstruite contient tout les points critiques du complexe de Morse-Smale simplifié et n'en contient aucun autre
Sélection de variables pour des processus ponctuels spatiaux by Achmad Choiruddin( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

Recent applications such as forestry datasets involve the observations of spatial point pattern data combined with the observation of many spatial covariates. We consider in this thesis the problem of estimating a parametric form of the intensity function in such a context. This thesis develops feature selection procedures and gives some guarantees on their validity. In particular, we propose two different feature selection approaches: the lasso-type methods and the Dantzig selector-type procedures. For the methods considering lasso-type techniques, we derive asymptotic properties of the estimates obtained from estimating functions derived from Poisson and logistic regression likelihoods penalized by a large class of penalties. We prove that the estimates obtained from such procedures satisfy consistency, sparsity, and asymptotic normality. For the Dantzig selector part, we develop a modified version of the Dantzig selector, which we call the adaptive linearized Dantzig selector (ALDS), to obtain the intensity estimates. More precisely, the ALDS estimates are defined as the solution to an optimization problem which minimizes the sum of coefficients of the estimates subject to linear approximation of the score vector as a constraint. We find that the estimates obtained from such methods have asymptotic properties similar to the ones proposed previously using an adaptive lasso regularization term. We investigate the computational aspects of the methods developped using either lasso-type procedures or the Dantzig selector-type approaches. We make links between spatial point processes intensity estimation and generalized linear models (GLMs), so we only have to deal with feature selection procedures for GLMs. Thus, easier computational procedures are implemented and computationally fast algorithm are proposed. Simulation experiments are conducted to highlight the finite sample performances of the estimates from each of two proposed approaches. Finally, our methods are applied to model the spatial locations a species of tree in the forest observed with a large number of environmental factors
Transfert d'animation : animer des personnages virtuels par le jeu et le mime by Maxime Garcia( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Durant les dernières décennies, l'animation 3D s'est largement intégrée à notre vie quotidienne, que cela soit dans le domaine du jeu vidéo, du cinéma ou du divertissement plus généralement.Malgré son utilisation rependue, la création d'animation reste réservés à des animateurs expérimentés et n'est pas à la portée de novices. Par ailleurs, le processus de création d'animation doit respecter une pipeline très stricte : après une première phase de storyboarding et de design des personnages, ceux-ci sont ensuite modélisés, riggés et grossièrement positionnés dans l'espace 3D permettant de créer un premier brouillon d'animation. Les actions et mouvements des personnages sont ensuite décomposés en keyframes interpolées, constituant l'animation finale. Le processus de keyframing est difficile et nécessite, de la part des animateurs, beaucoup de temps et d'effort, notamment pour la retouche de chaque courbe d'animation liée à un degré de liberté d'un personnage, et ceci pour chaque action. Ces dernières doivent aussi être correctement séquencées au cours du temps afin de transmettre les intentions des personnages et leur personnalité. Certaines méthodes telle que la motion capture rendent le processus de création plus aisé en transférant le mouvement de véritables acteurs aux mouvements de personnages virtuels. Cependant, ces animations transférées manquent souvent d'expressivité et doivent être rectifiées par des animateurs.Dans cette thèse, nous introduisons une nouvelle méthode permettant de créer aisément des séquences d'animation 3D à partir d'une base de donnée d'animations individuelles comme point de départ. En particulier, notre travail se concentre dans l'animation de personnages virtuels reproduisant une histoire jouée avec des objets physiques tels que des figurines instrumentées par des capteurs. Notre principal objectif est de calculer des animations plausibles et expressives depuis les données retournées par les capteurs dans le but de transformer l'histoire racontée par le narrateur et ses figurines en une animation 3D. Afin d'atteindre cet objectif, nous proposons un nouveau pipeline d'animation, analysant et traduisant le mouvement des mains en séquence d'animations adaptées à leur trajectoire espace-temps ainsi qu'à leur qualité de mouvement. Nous présentons un descripteur de mouvement invariant par translation, rotation et passage à l'échelle permettant à notre système de reconnaître des actions exécutées par l'utilisateur ; nous présentons également deux classificateurs reconnaissant les qualités du mouvement en tant qu'Effort de Laban. Nous introduisons un nouveau modèle d'animation procédural inférant l'expressivité de la qualité de mouvement de la main en tant qu'Effort de la Laban Temps et Poids. Enfin, nous étendons le système afin de permettre la manipulation de plusieurs personnages en même temps, en détectant et transférant des interactions entre personnages tout en étant fidèle aux qualités de mouvement du narrateur et permettant aux personnages d'agir selon des comportements prédéfinis, laissant l'utilisateur exprimer sa créativité.Les capacités de notre système ont été évaluées a travers plusieurs études utilisateurs durant lesquelles des novices ont pu suivre un script ou ont librement improvisé des histoires a deux figurines.Nous concluons avec une discussion sur les futures directions de recherche
Analyse de l'illumination et des propriétés de réflectance en utilisant des collections d'images by Mauricio Diaz( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

The main objective of this thesis is to exploit the photometric information avail- able in large photo collections of outdoor scenes to infer characteristics of the illumination, the objects and the cameras. To achieve this goal two problems are addressed. In a preliminary work, we explore opti- mal representations for the sky and compare images based on its appearance. Much of the information perceived in outdoor scenes is due to the illumination coming from the sky. The solar beams are reflected and refracted in the atmosphere, creating a global illumination ambiance. In turn, this environment determines the way that we perceive objects in the real world. Given the importance of the sky as an illumination source, we formulate a generic 3-step process in order to compare images based on its appearance. These three stages are: segmentation, modeling and comparing of the sky pixels. Different approaches are adopted for the modeling and comparing phases. Performance of the algorithms is validated by finding similar images in large photo collections. A second part of the thesis aims to exploit additional geometric information in order to deduce the photometric characteristics of the scene. From a 3D structure recovered using available multi-view stereo methods, we trace back the image formation process and estimate the models for the components involved on it. Since photo collections are usually acquired with different cameras, our formulation emphasizes the estimation of the radiometric calibration for all the cameras at the same time, using a strong prior on the possible space of camera response functions. Then, in a joint estimation framework, we also propose a robust computation of the global illumination for each image, the surface albedo for the 3D structure and the radiometric calibration for all the cameras
Schémas semi-implicites et de diffusion-redistanciation pour la dynamique des globules rouges by Arnaud Sengers( )

1 edition published in 2019 in French and held by 2 WorldCat member libraries worldwide

In this work, we propose new semi-implicit schemes to improve the numerical simulations of the motion of an immersed red blood cell. We consider the levelset method where the interface is described as the 0 isoline of an auxiliary function and the fluid-structure coupling is done by adding a source term in the fluid equation.The idea of these semi-implicit scheme is to predict the position and the shape of the structure through a heat equation and to use this prediction to improve the accuracy of the source term in the fluid equation. This type of semi-implicit scheme has firstly been implemented in the case of a multiphase flow and a immersed elastic membrane and has shown better temporal stability than an explicit scheme, resulting in an improved global efficiency.In order extend this method to the case of a red blood cell, we propose an algorithm to compute the Willmore flow in dimenson 2 and 3. In the spirit of the diffusion generated motion methods, our method simulate a non linear four order flow by only solving heat equations. To ensure the conservation of the volume and area of the the vesicle, we add to the method a correction step that slightly moves the interface so that we recover the constraints.Combnation of these two steps allows to compute the behavior of a red blood cell left at rest. We validate this method by obtaining the convergence to an equilibrium shape in both 2D and 3D. Finaly we introduce a semi-implicit scheme in the case of a red blood cell that shows how we can use this method as a prediction in the complete coupling model
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.00 (from 0.00 for Invariance ... to 0.00 for Invariance ...)

Alternative Names
Laboratoire Jean Kuntzmann facility in Grenoble, France

LJK

UMR 5224

UMR5224

Unité Mixte de Recherche 5224

Languages
English (12)

French (10)