WorldCat Identities

École doctorale Sciences et technologies de l'information et de la communication (Sophia Antipolis, Alpes-Maritimes)

Overview
Works: 867 works in 1,281 publications in 2 languages and 1,311 library holdings
Roles: Other, Degree grantor, 996
Publication Timeline
.
Most widely held works by Alpes-Maritimes) École doctorale Sciences et technologies de l'information et de la communication (Sophia Antipolis
Télédétection pour la qualité de l'air en milieu urbain by Ludovic Basly( Book )

2 editions published in 2000 in French and held by 5 WorldCat member libraries worldwide

La qualité de l'air en milieu urbain fait désormais partie des préoccupations des autorités responsables des grandes agglomérations. Les décideurs ont besoin d'outils permettant la surveillance de la pollution atmosphérique. Actuellement, il est impossible de connaître précisément la distribution spatiale des polluants. Les associations en charge de la qualité de l'air sont donc très intéressées par tous les moyens susceptibles d'affiner cette connaissance. La télédétection est un de ces moyens, aussi nous nous sommes attachés, au cours de cette thèse, à apporter des éléments de réponse utiles aux praticiens. L'analyse d'images-radar à synthèse d'ouverture (RSO), de l'agglomération nantaise, nous a permis de définir les facteurs influençant la perception de l'environnement urbain dans les images-radar. De cette analyse a découlé une étude pour cartographier la rugosité aérodynamique sur toute la ville. Ce paramètre, caractérisant la morphologie locale, est nécessaire à la modélisation de la dispersion des polluants au-dessus des villes. Nous avons utilisé pour cette cartographie des images-radar seules ou employées conjointement à l'imagerie optique. Une autre étude a été menée visant à obtenir une méthode innovante, faisant usage des données optiques en infrarouge thermique, pour cartographier la distribution spatiale du champ de concentration des particules en suspension (fumées noires). Des facteurs pouvant influencer les interactions entre les polluants et les autres bandes spectrales, du visible et de l'infrarouge, ont été étudiés. Dans un souci d'opérationnalité, que ce soit avec l'imagerie radar ou optique, les résultats des nouvelles méthodes ont été comparés avec ceux obtenus avec des méthodes conventionnelles
Processus ponctuels marqués pour l'extraction automatique de caricatures de bâtiments à partir de modèles numériques d'élévation by Mathias Ortner( Book )

2 editions published in 2004 in French and held by 4 WorldCat member libraries worldwide

The context of this thesis is the reconstruction of urban areas from images. It proposes a set of algorithms for extracting simple shapes from Digital Elevation Models (DEM). DEMs describe the altimetry of an urban area by a grid of points, each of which has a height associated to it. The proposed models are based on marked point processes. These mathematical objects are random variables whose realizations are configurations of geometrical shapes. Using these processes, we can introduce constraints on the shape of the objects to be detected in an image, and a regularizing term incorporating geometrical interactions between objects. An energy can be associated to each object configuration, and the global minima of this energy can then be found by applying simulated annealing to a Reversible Jump Monte Carlo Markov Chain sampler (RJMCMC). We propose four different models for extracting the outlines of buildings from altimetric descriptions of dense urban areas. Each of these models is constructed from an object shape, a data energy, and a regularizing energy. The first two models extract simple shapes (rectangles) using, respectively, a homogeneity constraint and discontinuity detection. The third model looks for three-dimensional polyhedral buildings. The last model uses cooperation between two types of objects, rectangles and segments. The resulting algorithms are evaluated on real data provided by the French National Geographic Institute (a laser DEM and optical DEMs of differing quality)
Application of the theory of the viscosity solutions to the shape from shading problem by Emmanuel Prados( Book )

2 editions published in 2004 in English and held by 4 WorldCat member libraries worldwide

``Shape From Shading'' is considered as an ill-posed problem which is therefore difficult to solve. In order to understand the difficulty of this problem and to design reliable and relevant solutions, we propose a rigorous approach based on the notion of viscosity solutions. In particular, we systematically prove the existence and uniqueness of the solution; if necessary (when uniqueness does not hold) we characterize the solutions. We also demonstrate the convergence of our algorithms. After having considered and fully exploited the (partial differential) equations provided by the classical modelling of the Shape From Shading problem, we propose and study some new equations arising from modelings which are more realistic than the ones considered in the Shape From Shading literature. In particular, this allows us to demonstrate that, with more realistic modelings, the Shape From Shading problem is generally well-posed. In effect, we prove that the classical version of the Shape From Shading problem is ill-posed because of an over-simplification in the modeling. In this work, we also propose an extension of the notion of the singular viscosity solutions developed recently by Camilli and Siconolfi. This extension allows to propose a new characterization of the discontinuous viscosity solutions. This new mathematical framework also allows to unify the various theoretical results that have been obtained in the Shape From Shading area
Analyse de textures dans l'espace hyperspectral par des méthodes probabilistes by Guillaume Rellier( Book )

2 editions published in 2002 in French and held by 4 WorldCat member libraries worldwide

Dans cette thèse, on aborde le problème de l'analyse de texture pour l'étude des zones urbaines. La texture est une notion spatiale désignant ce qui, en dehors de la couleur, caractérise l'homogénéité visuelle d'une zone donnée d'une image. Le but de cette étude est d'établir un modèle conjointement spectral et spatial de texture hyperspectrales, images caractérisées par un grand nombre de canaux. Les textures sont modélisées par un champ de Markov gaussien vectoriel. Ce champ est adapté aux images hyperspectrales par une simplification évitant l'apparition de problèmes d'estimation statistique dans des espaces de grande dimension. On effectue également une réduction de dimension des données par poursuite de projection, qui permet de déterminer un sous-espace de projection dans lequel un indice de projection est optimise. La méthode d'analyse de texture est testée dans le cadre d'une classification supervisée, grâce a 2 algorithmes que l'on applique a des images AVIRIS
Exploitation des ontologies pour la mémoire d'un projet-véhicule : méthode et outil SAMOVAR by Joanna Golebiowska( Book )

2 editions published in 2002 in French and held by 4 WorldCat member libraries worldwide

Construction et simulation graphiques de comportements : le modèle des Icobjs by Christian Brunette( Book )

2 editions published in 2004 in French and held by 4 WorldCat member libraries worldwide

Intuitivement, une simulation graphique (monde virtuel, jeu,...) peut être vue comme un espace borné dans lequel plusieurs entités, disposant chacune d'un comportement propre, évoluent en parallèle. Il paraît donc naturel d'utiliser des langages concurrents pour programmer ces comportements. Cependant, c'est rarement le cas pour des raisons de complexité de programmation et de déboguage, de non-déterminisme et d'efficacité. Nous proposons d'utiliser l'Approche Réactive introduite par F. Boussinot qui permet de définir clairement les comportements d'entités graphiques. Nous avons enrichi les Icobjs qui est un modèle d'objets réactifs graphiques. Il offre la possibilité à des non-spécialistes de construire graphiquement des comportements complexes à partir de comportements simples et de constructeurs graphiques. Nous avons réalisé une implémentation dont l'objet central est Icobj. Il définit une structure minimale dynamiquement extensible pour permettre une construction graphique générique. Un icobj particulier, le Workspace, exécute et affiche les icobjs qu'il contient. Les comportements sont exécutés par un moteur réactif dédié aux Icobjs appelé Reflex. Il reprend les principales primitives du formalisme Junior en modifiant la sémantique de certaines instructions et en y ajoutant de nouvelles. Toutes les instructions sont formalisées par des règles de réécritures au format SOS. De plus, nous avons développé un environnement qui permet d'interagir dynamiquement avec les simulations. Enfin, nous présentons quelques expérimentations autour de l'utilisation des Icobjs dans le cadre de simulations distribuées, de simulations physiques ou de simulations multi-horloges
La gestion dynamique de la qualité de service dans l'Internet by Rares Serban( Book )

2 editions published in 2003 in English and held by 4 WorldCat member libraries worldwide

L'Internet sert de support de communication a un grand nombre d'applications dans le cadre des réseaux d'entreprise. Cependant, un certain nombre d'applications multimédia (par exemple la téléphonie sur IP) nécessitent le support d'un ensemble de mécanismes de qualité de service (QoS) dans le réseau. Chaque mécanisme de QoS est provisionne en fonction du contrat (SLA - Service Level Agreement) établit entre l'utilisateur/application et le FAI (Fournisseur d'Accès a Internet). Le rôle important de la gestion de la QoS est de conserver toutes les caractéristiques établies par le SLA pendant toute la durée du contrat. Cette gestion peut être statique ou dynamique. Dans le cas statique, la gestion de la QoS dans le réseau est effectuée, d'une manière expérimentale et non efficace, manuellement par l'administrateur de réseau sur une grande échelle de temps. La gestion dynamique de la QoS est effectuée en utilisant de façon adaptable et automatique des mécanismes de QoS pour une gestion flexible et efficace des ressources du réseau. Dans cette thèse, nous considérons les éléments suivants qui composent l'architecture pour la gestion dynamique des ressources: la signalisation, des algorithmes d'allocation de la bande passante et de contrôle de ressources, des algorithmes de mesure des ressources dans le réseau et des algorithmes de négociation entre plusieurs domaines administratifs. Nous proposons des critères de classification pour les protocoles de signalisation de QoS dans l'Internet et nous effectuons, en utilisant cette classification, une analyse des protocoles de QoS les plus utilises. Nous étudions l'impact entre les paramètres de SLA (bande passante, gigue, délai, perte de paquets) et les paramètres de différents mécanismes fournis par défaut par le système d'exploitation Linux. En utilisant Diffserv conjointement a une plateforme Linux (note par la suite Linux Diffserv), nous montrons dans certains cas que la gestion statique de la QoS n'est pas efficace. Nous proposons un mécanisme d'allocation dynamique de la bande passante dans les routeurs a l'intérieur du réseau (Linux Diffserv). Avec notre algorithme nous proposons plusieurs règles de partage des ressources
Analyse statique de programmes Java [et] application à la parallélisation by Romain Guider( Book )

2 editions published in 2000 in French and held by 3 WorldCat member libraries worldwide

Nous proposons une analyse statique de programmes à objets par interprétation abstraite. L'analyse de programmes à objets comporte deux particularités que nous traitons séparément : l'analyse du flot de contrôle et la représentation des graphes d'objets. Dans un premier temps, nous présentons une analyse de flot de contrôle paramétrée par une représentation abstraite de graphes d'objets. Cette analyse est générique et peut servir de base à de nombreuses applications. De plus, elle est conçue par interprétation abstraite ce qui nous permet de montrer sa correction sous certaines hypothèses qui portent sur le domaine employé pour représenter les graphes d'objets. Nous dérivons de notre interpréteur abstrait une présentation des problèmes d'analyse statique sous la forme d'un système d'équations et nous prouvons que ce système d'équations est équivalent à l'interpréteur abstrait. La présentation sous cette forme permet de résoudre efficacement les problèmes d'analyse en utilisant des stratégies d'itérations de point fixe sophistiquées (et aussi d'utiliser des solveurs génériques) et de limiter le nombre de calculs qui est fait [sic] pendant les itérations de point fixe en les reportant sur la phase de construction du système d'équation (...). Dans un second temps nous instancions notre analyseur statique en utilisant un domaine abstrait pour les graphes d'objets qui est dû à Sagiv, Reps et Wilhelm. Nous étendons ce domaine pour construire une analyse interprocédurale (...). Enfin, nous décrivons une application de l'analyse statique à la parallélisation et à la distribution de programmes à objets (...)
Markov chains and decision processes for congestion avoidance and power control by Balakrishna Jitendra Prabhu( Book )

2 editions published in 2005 in English and held by 3 WorldCat member libraries worldwide

This thesis is based on some applications of Markov chains and decision processes for congestion and power control. First, we study the behaviour of the window size of an MIMD congestion control algorithm when subject to different loss processes. We show that the logarithm of the window size follows an additive recursive equation, which can be modelled as a Markov chain. We also show that the throughput is inversely proportional to the packet loss probability. Next, we study a continuous time model for the window size of a general increase and instantaneous decrease congestion control algorithm. We provide conditions under which two congestion control algorithms have related window size behaviour. Next, we model the ratio of the instantaneous rates of two competing MIMD sessions. For heterogeneous sources, we show that the fairness index can be improved by introducing rate-dependent losses at an intensity which is greater than a threshold. We also study the bandwidth sharing between AIMD and MIMD sources under synchronous losses. Next, we model the instantaneous and the average queue sizes of a RED enabled queue as a non-homogeneous Quasi-Birth-Death process. In the limit when the averaging parameter goes to zero, we use singular perturbation find the joint distribution of the average and the instantaneousqueue sizes. A problem related to energy-delay tradeoff in a wireless device is studied next. In each slot, the device has to decide whether to transmit data or to leave the battery idle in order to increase the battery lifetime. Finally, through simulations we study the effect of two threshold based channel switching policies in UMTS
Analyse et modélisation du rythme cardio-respiratoire au repos et à l'effort by Ghailen Laouini( Book )

2 editions published in 2012 in French and held by 3 WorldCat member libraries worldwide

Dans ces travaux, nous nous intéressons à la modélisation de la variabilité du rythme cardiaque (HRV) à l'exercice. L'objectif de cette thèse est donc d'étudier la HRV à l'exercice en prenant en compte la respiration. Le modèle IPFM a été utilisé pour expliquer le mécanisme utilisé par le système nerveux autonome pour contrôler le rythme cardiaque. A l'aide des pics générés par ce modèle, nous étudions la relation entre la période cardiaque, qui est la différence entre deux pics successifs, et le signal de modulation. Nous proposons le modèle TVIPFM avec trois approches différentes (A, B, C) comme alternative au modèle IPFM pour estimer la modulation du système nerveux autonome, adaptée à l'exercice. Le modèle TVIMPFM permet alors de corriger la variabilité cardiaque. Cette variabilité sera filtrée dans la bande de la fréquence respiratoire et dans le domaine temps-fréquence, en utilisant différentes méthodes de représentations temps-fréquence. Ceci s'explique par le caractère non stationnaire du signal observé. Nous présentons différentes représentations temps-fréquence linéaires et quadratiques permettant ce filtrage et justifiant leur utilisation. L'EMD est abordée également pour sa propriété de décomposition en signaux « monocomposantes ». Des simulations nous ayant permis de sélectionner la meilleure correction IPFM et la meilleure représentation temps-fréquence pour le filtrage, une application réelle étendue est proposée. Dans celle-ci, on montre qu'à l'aide de cette chaîne de traitement la corrélation avec l'âge de la transplantation et la variabilité du rythme cardiaque existe bien
Modèles de contours actifs basés régions pour la segmentation d'images et de vidéos by Stéphanie Jehan-Besson( Book )

2 editions published in 2003 in French and held by 3 WorldCat member libraries worldwide

The general issue of our work is the elaboration of region-based active contours models for image and video segmentation. We propose to segment regions or objects by minimizing a general functional including domains and boundaries integrals. In this framework, the functions characterizing regions or boundaries are named "descriptors". The associated evolution equation is computed using shape derivation tools. Besides, we take into account the case of region-dependent descriptors that evolve during the curve propagation. We show that this variation induces supplementary terms in the evolution equation. Region-based covariance determinant, region segmentation using a distance to a reference histogram, video objects detection
Contours actifs d'ordre supérieur et leur application à la détection de linéiques dans les images de télédétection by Marie Rochery( Book )

2 editions published in 2005 in French and held by 3 WorldCat member libraries worldwide

This thesis addresses the question of how to introduce prior knowledge about the shape of an object to be detected in the general framework of object recognition from images. We illustrate this idea with the problem of line network extraction from satellite and aerial images. We use the framework of active contours, which has been extensively used in image processing for object extraction. We introduce a whole new class of active contours, named "higher-order active contours". This class allows us to define new models that incorporate sophisticated prior geometric knowledge describing, rather than a specific shape, a general family of shapes. We first study a particular case of a geometric quadratic energy that favours network structures composed of arms of roughly constant width joined at junctions. This energy demonstrates the modelling possibilities offered by the new class of active contours. The geometric quadratic energy is added to the linear terms length and area, and is used as a geometric prior for the line network extraction models we propose. Several image terms are defined, one of them being a quadratic term linking the geometry of contour points and the data. A model for extraction in presence of occlusions is also presented. In order to minimize these energies, we develop an algorithm based on the level set methodology. The non-local forces of the gradient descent equation are computed on the extracted contour, before being extended to the whole domain. Finally, in order to solve certain difficulties with both standard active contours and the new models, we propose to use phase field models to model regions
Stabilisation globale de systèmes dynamiques positifs malconnus : applications en biologie by Ludovic Mailleret( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Works presented in this thesis focus on problems related to the control of positive systems of nonlinear ordinary differential equations. Biological models that aim at describing the evolution of positive quantities do belong to this class of systems. These models often include some parts, related to the phenomenon's biology, which have unknown analytical expressions but are known in a qualitative manner. In this thesis, we propose to use these qualitative properties together with a control law, based on the measurement of the uncertain part, in order to globally stabilize any trajectory towards a single equilibrium. A brief state of the art on positive systems begins the thesis. We introduce then a control law, able to ensure the global stabilization of the considered class of systems. The introduction of an adaptive part enhances our approach, so that the control law is able to deal with some parameter uncertainties. We apply these results to some biological models : fishery management model, bioreactors exploiting microorganisms... One of our main applications concerns cascade bioreactions occurring in bioreactors some experimental tests of our approach on an anaerobic digester, an efficient but very sensitive waste water treatment plant, validate our approach
Mise en oeuvre et évaluation d'outils de fusion d'image en radiothérapie by Pierre-Yves Bondiau( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Le cancer est un problème majeur de santé publique. Les traitements peuvent être à visée systémique ou loco-régionale, dans ce dernier cas l'imagerie médicale jour un rôle important, permettant de préciser la localisation de la tumeur. L'objectif de la radiothérapie est de délivrer une dose curatrice de radiation au volume cible tout en épargnant les organes à risques (OAR) avoisinants. La détermination de la localisation précise de ce volume cible ainsi que des OAR permet de définir la balistique des faisceaux d'irradiation. Après le rappel des principes de la radiothérapie, nous précisons les enjeux cliniques des tumeurs oculaires, cérébrales et prostatiques. Les différentes techniques de recalage d'images sont passées en revue dans le but d'être didactique vis-à-vis de la communauté médicale. Les résultats du recalage sont présentés dans le cadre de la planification de la radiothérapie oculaire, cérébrale et prostatique afin de préciser les types de recalage applicable en oncologie. Nous présentons les perspectives de ce type d'application selon différentes régions anatomiques ainsi que son intérêt dans la segmentation automatique. Les applications de la segmentation automatique et l'évaluation des résultats dans le cadre des tumeurs de l'encéphale sont décrits après avoir passé en revue les différentes méthodes de segmentation selon les localisations anatomiques. Une application originale est la simulation numérique de la croissance tumorale virtuelle qui est comparée avec la croissance réelle d'une tumeur cérébrale présentée par un patient. Nous concluons avec les différents développements de la fusion d'image ainsi que les pistes de recherche devant être explorées
Optimisation du compromis débit-distorsion pour la compression géométrique de maillages surfaciques triangulaires by Frédéric Payan( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Les travaux développés dans cette thèse portent sur l'optimisation du compromis débit-distorsion pour des maillages triangulaires quantifiés par un codeur géométrique. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage. Ces « codeurs géométriques » incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multi résolution efficace. L'objectif de nos travaux est de proposer un codeur géométrique incluant une allocation binaire qui optimise la qualité visuelle du maillage reconstruit en fonction d'un débit cible. Cette distance qui traduit la différence géométrique entre deux maillages d'entrée et deux maillages demande un lourd processus d'un point de vue calculatoire. Utiliser une approximation de cette mesure comme critère de distorsion est donc préférable si l'on souhaite une allocation rapide. Nous avons alors montré que sous certaines hypothèses cette mesure pouvait être estimée par une somme pondérée des erreurs de quantification des coefficients d'ondelettes. De plus, les particularités statistiques des coefficients géométriques permettent l'utilisation de modèles théoriques pour le débit et la distorsion des sous-bandes. Finalement, nous proposons un codeur géométrique incluant une allocation rapide et performante qui optimise la quantification des coefficients pour que la qualité visuelle de l'objet reconstruit soit maximisée sous la contrainte d'un débit total fixé. Expérimentalement, l'algorithme donne de meilleurs résultats que toutes les méthodes de l'état de l'art
Modèles de contours actifs pour la segmentation d'images et de vidéos by Muriel Gastaud( Book )

2 editions published in 2005 in French and held by 3 WorldCat member libraries worldwide

Image segmentation is the partition of an image in region of interest against a background. We performed image segmentation using an active contour algorithm in a variational framework. The active contour evolves from an initial contour towards the region of interest following an evolution equation. In a variational framework, the evolution equation is deduced from the derivation of a criterion. The criterion characterizes the region of interest according to, for example, its motion, its colour homogeneity or its texture. The derivation os provided using shape gradients, a tool coming from shape optimisation theory. We propose two criterions and provide for each criterion the derivation process and the associated evolution equation. The first criterion defines a free form a priori constraint on the contour by minimizing the distance between the active contour and a reference one. We applied this criterion to shape warping, image segmentation, and video tracking. The second criterion assumes that object motion can be described by a motion model. The evolution of the active contour according to the minimization of this criterion provides a joint motion segmentation and estimation on a group of pictures. We applied this criterion to image segmentation and motion estimation, and to video tracking
Codes quasi-cycliques : constructions algébriques et représentations par treillis by Anne Desideri Bracco( Book )

2 editions published in 2003 in French and held by 3 WorldCat member libraries worldwide

Au sein des codes correcteurs d'erreurs et de la Théorie de l'Information, les codes quasi-cycliques tiennent une place particulière. Ces codes de longueur finie généralisent les codes cycliques et approchent les codes de longueur infinie que sont les codes convolutifs. Les codes quasi-cycliques possèdent de plus d'excellents paramètres : ils ont une grande capacité de correction. Nous présentons deux approches algébriques différentes pour ces codes : l'approche constructive proposée par Ling San et Patrick Solé, qui ont généralisé la construction cubique en la construction quintique et la construction septique, et l'approche cyclique reprise par Kristine Lally. Les treillis sont des graphes qui permettent de représenter les codes correcteurs d'erreurs, dans le but de les décoder avec l'algorithme de Viterbi. Il existe deux types de treillis : les treillis conventionnels et les treillis cycliques. À chacun de ces types de treillis nous associons une construction graphique de codes quasi-cycliques qui correspond à l'une des deux approches algébriques présentées précédemment : Pour les treillis conventionnels, la construction graphique est une généralisation de la construction de G.D. Forney. Elle rejoint l'approche de S. Ling et P. Solé sous certaines conditions. Les treillis cycliques sont associés à la représentation cyclique de K. Lally. Ces treillis permettent de représenter les codes avec moins de sommets que les treillis conventionnels. Enfin, de nouveaux codes auto-duaux, entre autres des codes de paramètres [70,35,12] et [72, 36,12], sont construits à partir des constructions cubiques, quintiques et septiques et du logiciel Magma
Contribution à l'étude de l'estimation du contraste en interférométrie by Yoann Cavallin( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Ce mémoire consiste en l'étude statistique de signaux astrophysiques. Il porte sur l'estimation du contraste des franges d'interférence issu d'un interféromètre stellaire de Michelson. Dans un premier temps, le problème de la modélisation statistique d'une image interférométrique s'est posé. Une expression analytique des moments du premier et second ordre de l'image a été déterminée pour un interféromètre à longue base. Puis l'accent a été mis sur la difficulté d'établir la distribution de l'image, notamment lorsque l'acquisition en comptage de photons est envisagée. Plusieurs solutions sont proposées. Pour l'une d'elles, la distribution gaussienne, la connaissance des moments a permis de calculer une borne asymptotique sur la variance du contraste estimé: la borne de Cramér-Rao. Cette borne est comparée à la variance des estimateurs actuels du contraste, puis recalculée lorsque le paramètre de Fried - relatif à l'intensité de la turbulence atmosphérique - est supposé inconnu. Dans un second temps, la question de l'estimation du contraste a été soulevée. Cette étude présente deux difficultés majeures. Tout d'abord, les méthodes paramétriques s'appuyant sur la loi de distribution sont à exclure, car cette distribution est supposée partiellement connue ou difficilement exploitable. Seul un modèle de la densité spectrale du processus est accessible. Dans le cas de signaux stationnaires (ou homogènes), une solution consiste à utiliser l'estimateur issu du critère de Whittle. Ensuite, le caractère non homogène de l'image empêche l'utilisation de la plupart des méthodes classiques d'estimation. Néanmoins il est possible d'établir un critère d'estimation paramétrique, de structure identique au critère de Whittle, mais basé sur la distribution de la transformée de Fourier discrète du signal. L'estimation du contraste a été menée à partir de ce critère. Les avantages liés à l'utilisation de l'estimateur proposé sont observés avec des images simulées, comme avec des données interférométriques de l'étoile Véga. De plus un algorithme itératif utilisé pour la minimisation du critère a été étudié. Pour cette application, la convergence globale de l'algorithme est prouvée
Large scale diffusion of information in publish-subscribe systems by Raphaël Chand( Book )

2 editions published in 2005 in English and held by 3 WorldCat member libraries worldwide

CETTE THESE EST CONSACREE A L'ETUDE DE RESEAUX DE TYPE PUBLICATION/ABONNEMENT DANS LESQUELS DES PRODUCTEURS PUBLIENT DE L'INFORMATION A L'INTENTION DE CONSOMMATEURS. LES DONNEES SONT DIFFUSEES SELECTIVEMENT EN FONCTION DE LEUR NATURE ET DES INTERETS DES CONSOMMATEURS. LES RESEAUX DE CE TYPE SONT DEVENUS UN THEME DE RECHERCHE TRES POPULAIRE CAR ILS OFFRENT UN GRAND DECOUPLAGE ENTRE LES ELEMENTS DU SYSTEME, PERMETTANT DE PASSER AISEMENT A L'ECHELLE. DANS UN PREMIER TEMPS, NOUS PRESENTONS UN SYSTEME DE TYPE PUBLICATION/ABONNEMENT QUE NOUS AVONS SPECIALEMENT CONCU POUR LA DIFFUSION EFFICACE ET FIABLE DE DOCUMENTS XML A LARGE ECHELLE. NOTRE SYSTEME INTEGRE PLUSIEURS TECHNOLOGIES ET ALGORITHMES NOVATEURS, TELS QUE L'AGREGATION DE SOUSCRIPTIONS. NOUS AVONS REALISE DE NOMBREUSES SIMULATIONS ET NOUS AVONS DEPLOYE NOTRE SYSTEME SUR LA PLATE-FORME EXPERIMENTALE MONDIALE PLANETLAB. LES RESULTATS MONTRENT QUE NOTRE SYSTEME EST EFFICACE ET PASSE AISEMENT A L'ECHELLE, ET EST CAPABLE DE SE RECONSTITUER RAPIDEMENT SUITE A DES PANNES DE LIENS OU DE ROUTEURS. DANS UN DEUXIEME TEMPS, NOUS PROPOSONS UNE APPROCHE ORIGINALE POUR CONCEVOIR UN SYSTEME DE TYPE PUBLICATION/ABONNEMENT. NOTRE SYSTEME EST BASE SUR LE CONCEPT PAIR-A-PAIR. LA PRINCIPALE INNOVATION EST L'UTILISATION D'UN PROTOCOLE DE ROUTAGE EXTREMEMENT SIMPLE. IL EN RESULTE UNE CERTAINE PERTE DE PRECISION, QUE NOUS POUVONS CEPENDANT MINIMISER EN ORGANISANT LES PAIRS EN FONCTION DE LEURS INTERETS DANS DES ''COMMUNAUTES SEMANTIQUES'', AU MOYEN DE METRIQUES DE PROXIMITE ADEQUATES. L'EVALUATION EXPERIMENTALE MONTRE QUE LE ROUTAGE EST EFFECTIVEMENT PRECIS ET TRES EFFICACE EN PRESENCE DE GRANDES POPULATIONS DE CONSOMMATEURS
Conception de modèles haut niveau pour l'optimisation et la vérification de systèmes Bluetooth by Alexandre Lewicki( Book )

2 editions published in 2008 in English and held by 2 WorldCat member libraries worldwide

The different works conducted in this thesis were to design high level functional models that were used in a wireless system design flow. The MCSE methodology was followed to design those models and the results have been used for Bluetooth technology system design and verification. The first part of the work presents the MCSE methodology that has been used for the design of the models. Starting from the specification of a concrete use case, a temperature sensor, we designed a functional model of the system with successive refinement steps. The models were then translated in SystemC, a C++ library that allows describing both hardware and software parts of a system. The results of the exploitation of the models in a wireless network simulation can be used for protocol analysis, performance analysis and performance exploration. The second part of the work was to introduce the functional models in a hardware verification environment. Two different techniques for design engineers and verification engineers have been settled. This technique brings enhanced verification features with the possibility to write complex tests
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.90 (from 0.88 for Large scal ... to 0.92 for Analyse et ...)

Alternative Names
École doctorale 84

École doctorale STIC

ED 084

ED 84

ED084

ED84

Languages
French (30)

English (10)