WorldCat Identities

École doctorale Sciences et technologies de l'information et de la communication (Sophia Antipolis, Alpes-Maritimes)

Overview
Works: 862 works in 1,276 publications in 2 languages and 1,306 library holdings
Roles: Other, Degree grantor, 996
Publication Timeline
.
Most widely held works by Alpes-Maritimes) École doctorale Sciences et technologies de l'information et de la communication (Sophia Antipolis
Télédétection pour la qualité de l'air en milieu urbain by Ludovic Basly( Book )

2 editions published in 2000 in French and held by 5 WorldCat member libraries worldwide

La qualité de l'air en milieu urbain fait désormais partie des préoccupations des autorités responsables des grandes agglomérations. Les décideurs ont besoin d'outils permettant la surveillance de la pollution atmosphérique. Actuellement, il est impossible de connaître précisément la distribution spatiale des polluants. Les associations en charge de la qualité de l'air sont donc très intéressées par tous les moyens susceptibles d'affiner cette connaissance. La télédétection est un de ces moyens, aussi nous nous sommes attachés, au cours de cette thèse, à apporter des éléments de réponse utiles aux praticiens. L'analyse d'images-radar à synthèse d'ouverture (RSO), de l'agglomération nantaise, nous a permis de définir les facteurs influençant la perception de l'environnement urbain dans les images-radar. De cette analyse a découlé une étude pour cartographier la rugosité aérodynamique sur toute la ville. Ce paramètre, caractérisant la morphologie locale, est nécessaire à la modélisation de la dispersion des polluants au-dessus des villes. Nous avons utilisé pour cette cartographie des images-radar seules ou employées conjointement à l'imagerie optique. Une autre étude a été menée visant à obtenir une méthode innovante, faisant usage des données optiques en infrarouge thermique, pour cartographier la distribution spatiale du champ de concentration des particules en suspension (fumées noires). Des facteurs pouvant influencer les interactions entre les polluants et les autres bandes spectrales, du visible et de l'infrarouge, ont été étudiés. Dans un souci d'opérationnalité, que ce soit avec l'imagerie radar ou optique, les résultats des nouvelles méthodes ont été comparés avec ceux obtenus avec des méthodes conventionnelles
Exploitation des ontologies pour la mémoire d'un projet-véhicule : méthode et outil SAMOVAR by Joanna Golebiowska( Book )

2 editions published in 2002 in French and held by 4 WorldCat member libraries worldwide

Application of the theory of the viscosity solutions to the shape from shading problem by Emmanuel Prados( Book )

2 editions published in 2004 in English and held by 4 WorldCat member libraries worldwide

Le problème du ``Shape From Shading'' est aujourd'hui considéré comme un problème mal posé et difficile à résoudre. Afin de bien comprendre les difficultés de ce problème et d'apporter des solutions fiables et pertinentes, nous proposons une approche rigoureuse basée sur la notion de solution de viscosité. En particulier, nous prouvons systématiquement l'existence et l'unicité de la solution; le cas échéant, nous proposons des caractérisations des solutions. Nous prouvons aussi la convergence de nos algorithmes. Après avoir considéré et exploité au maximum les équations (aux dérivées partielles) obtenues à partir de la modélisation classique du problème du ``Shape From Shading'', nous proposons et étudions de nouvelles équations provenant de modélisations plus réalistes que celles qui avaient été traitées classiquement dans la littérature. Cette démarche nous permet alors de démontrer qu'avec de telles nouvelles modélisations, le problème du ``Shape From Shading'' est généralement un problème complètement bien posé. En d'autres termes, nous prouvons que la version classique du problème du ``Shape from Shading'' est devenu mal posée à cause d'une trop grande simplification de la modélisation. Dans ce travail, nous proposons aussi une extension de la notion de solutions de viscosité singulières développée récemment par Camilli et Siconolfi. Cette extension nous permet de proposer une nouvelle caractérisation des solutions de viscosité discontinues. Ce nouveau cadre théorique nous permet aussi d'unifier les différents résultats théoriques proposés dans le domaine du ``Shape From Shading''
Processus ponctuels marqués pour l'extraction automatique de caricatures de bâtiments à partir de modèles numériques d'élévation by Mathias Ortner( Book )

2 editions published in 2004 in French and held by 4 WorldCat member libraries worldwide

The context of this thesis is the reconstruction of urban areas from images. It proposes a set of algorithms for extracting simple shapes from Digital Elevation Models (DEM). DEMs describe the altimetry of an urban area by a grid of points, each of which has a height associated to it. The proposed models are based on marked point processes. These mathematical objects are random variables whose realizations are configurations of geometrical shapes. Using these processes, we can introduce constraints on the shape of the objects to be detected in an image, and a regularizing term incorporating geometrical interactions between objects. An energy can be associated to each object configuration, and the global minima of this energy can then be found by applying simulated annealing to a Reversible Jump Monte Carlo Markov Chain sampler (RJMCMC). We propose four different models for extracting the outlines of buildings from altimetric descriptions of dense urban areas. Each of these models is constructed from an object shape, a data energy, and a regularizing energy. The first two models extract simple shapes (rectangles) using, respectively, a homogeneity constraint and discontinuity detection. The third model looks for three-dimensional polyhedral buildings. The last model uses cooperation between two types of objects, rectangles and segments. The resulting algorithms are evaluated on real data provided by the French National Geographic Institute (a laser DEM and optical DEMs of differing quality)
La gestion dynamique de la qualité de service dans l'Internet by Rares Serban( Book )

2 editions published in 2003 in English and held by 4 WorldCat member libraries worldwide

All applications used in a company are designed for Internet support. Some of these aplications (e.g., VoIP, teleworking) request QoS mechanisms in the network to assure their good behavior. Each QoS mechanism is provisioned in function of SLA (Service Level Agreement) established between user/application and ISPs (Internet Service Provider). The QoS management role is to preserve all specifications from SLA during the contracts' period. The QoS management could be static or dynamic. In the static case, the network QoS management is done by the network administrator, using manual tuning work based on trial-and-error process, during a large scale of time. The dynamic QoS management is based on QoS automated and adaptable mechanismes for a flexible and efficient management of the network resources. We consider in this thesis the following components of the dynamic management of the network resources: signaling protocols, algorithms of resource allocation and admission control, network monitoring mechanisms and QoS trade mechanisms among multiple network domains. We propose criteria classifications for Internet QoS signaling protocols and we analyse using this classification the most used QoS signaling protocols. Westudy the impact of the service level parameters (e.g., delay, jitter, bandwidth, packet loss) and the low level parametres/network parameters of different QoS mechanism implemented for Linux Diffserv network. Using a Linux Diffserv network we demonstrate that the static QoS management in some cases is not efficient. We propose a dynamic resource allocation mechanism (DRAM) for the core routers. We propose with our algorithm different sharing resources rules
Analyse de textures dans l'espace hyperspectral par des méthodes probabilistes by Guillaume Rellier( Book )

2 editions published in 2002 in French and held by 4 WorldCat member libraries worldwide

Dans cette thèse, on aborde le problème de l'analyse de texture pour l'étude des zones urbaines. La texture est une notion spatiale désignant ce qui, en dehors de la couleur, caractérise l'homogénéité visuelle d'une zone donnée d'une image. Le but de cette étude est d'établir un modèle conjointement spectral et spatial de texture hyperspectrales, images caractérisées par un grand nombre de canaux. Les textures sont modélisées par un champ de Markov gaussien vectoriel. Ce champ est adapté aux images hyperspectrales par une simplification évitant l'apparition de problèmes d'estimation statistique dans des espaces de grande dimension. On effectue également une réduction de dimension des données par poursuite de projection, qui permet de déterminer un sous-espace de projection dans lequel un indice de projection est optimise. La méthode d'analyse de texture est testée dans le cadre d'une classification supervisée, grâce a 2 algorithmes que l'on applique a des images AVIRIS
Construction et simulation graphiques de comportements : le modèle des Icobjs by Christian Brunette( Book )

2 editions published in 2004 in French and held by 4 WorldCat member libraries worldwide

Intuitively, a graphical simulation (virtual world, game,...) can be seen as a finite space in which several entities, each having its own behavior, evolve in parallel. So it seems natural to use concurrent languages to program those behaviors. However, it is seldom the case due to the complexity of programming and debugging them, because they introduce non-determinism and are inefficient. We proposed to use the Reactive Approach introduced by F. Boussinot to define clearly the behaviors of graphical entities. We enhanced a model of graphical reactive objects called Icobjs. This model enables non-specialists to graphically build complex behaviors using elementary behaviors and graphical constructors. We realized an API whose main class is Icobj. It defines a minimal structure which can be dynamically extended and which allows a generic graphical construction. A particular icobj called Workspace executes and displays all the icobjs it contains. Behaviors are executed by a reactive engine called Reflex which is dedicated to Icobjs. It reuses Junior's formalism's main primitives, while modifying some instructions' semantics and introducing new instructions. We formalized all instructions using rewriting rules in the SOS format. Moreover, we developed a framework for dynamic interaction with simulations. Finally, we present a few experiments with Icobjs in distributed, physical or multi-clock simulations
Contours actifs d'ordre supérieur et leur application à la détection de linéiques dans les images de télédétection by Marie Rochery( Book )

2 editions published in 2005 in French and held by 3 WorldCat member libraries worldwide

This thesis addresses the question of how to introduce prior knowledge about the shape of an object to be detected in the general framework of object recognition from images. We illustrate this idea with the problem of line network extraction from satellite and aerial images. We use the framework of active contours, which has been extensively used in image processing for object extraction. We introduce a whole new class of active contours, named "higher-order active contours". This class allows us to define new models that incorporate sophisticated prior geometric knowledge describing, rather than a specific shape, a general family of shapes. We first study a particular case of a geometric quadratic energy that favours network structures composed of arms of roughly constant width joined at junctions. This energy demonstrates the modelling possibilities offered by the new class of active contours. The geometric quadratic energy is added to the linear terms length and area, and is used as a geometric prior for the line network extraction models we propose. Several image terms are defined, one of them being a quadratic term linking the geometry of contour points and the data. A model for extraction in presence of occlusions is also presented. In order to minimize these energies, we develop an algorithm based on the level set methodology. The non-local forces of the gradient descent equation are computed on the extracted contour, before being extended to the whole domain. Finally, in order to solve certain difficulties with both standard active contours and the new models, we propose to use phase field models to model regions
Optimisation du compromis débit-distorsion pour la compression géométrique de maillages surfaciques triangulaires by Frédéric Payan( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Les travaux développés dans cette thèse portent sur l'optimisation du compromis débit-distorsion pour des maillages triangulaires quantifiés par un codeur géométrique. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage. Ces « codeurs géométriques » incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multi résolution efficace. L'objectif de nos travaux est de proposer un codeur géométrique incluant une allocation binaire qui optimise la qualité visuelle du maillage reconstruit en fonction d'un débit cible. Cette distance qui traduit la différence géométrique entre deux maillages d'entrée et deux maillages demande un lourd processus d'un point de vue calculatoire. Utiliser une approximation de cette mesure comme critère de distorsion est donc préférable si l'on souhaite une allocation rapide. Nous avons alors montré que sous certaines hypothèses cette mesure pouvait être estimée par une somme pondérée des erreurs de quantification des coefficients d'ondelettes. De plus, les particularités statistiques des coefficients géométriques permettent l'utilisation de modèles théoriques pour le débit et la distorsion des sous-bandes. Finalement, nous proposons un codeur géométrique incluant une allocation rapide et performante qui optimise la quantification des coefficients pour que la qualité visuelle de l'objet reconstruit soit maximisée sous la contrainte d'un débit total fixé. Expérimentalement, l'algorithme donne de meilleurs résultats que toutes les méthodes de l'état de l'art
Modèles de contours actifs pour la segmentation d'images et de vidéos by Muriel Gastaud( Book )

2 editions published in 2005 in French and held by 3 WorldCat member libraries worldwide

La segmentation en objets d'une image consiste à extraire une ou des régions d'intérêt de l'image, suivant un critère défini. Nous segmentons l'image par un algorithme de contours actifs, dans le cadre d'une approche variationnelle. Partant, d'un contour initial quelconque, le contour actif évolue vers la région d'intérêt, dirigé par une équation aux dérivées partielles. L'équation d'évolution du contour actif est déduite de la dérivation du critère définissant la région. Au vu de la dépendance du critère à la région considérée, la dérivation du critère par rapport à la région n'est pas aisée. Nous utilisons des outils de dérivation empruntés à l'optimisation de domaine : les gradients de forme. La contribution de cette thèse réside dans l'élaboration et l'étude de différents descripteurs de régions. Pour chaque critère, nous calculons la dérivée du critère à l'aide des gradients de forme et en déduisons l'équation d'évolution du contour actif. Le premier descripteur définit un a priori géométrique sans contrainte paramétrique : il minimise la distance du contour actif à un contour de référence. Nous l'avons appliqué à la déformation de courbe (shape warping), la segmentation et le suivi de cible (tracking). Le deuxième descripteur définit conjointement une région et son mouvement sur plusieurs images consécutives. Le mouvement de la région est représenté par un modèle de mouvement. Nous avons appliqué ce critère à l'estimation et la segmentation conjointe du mouvement et au suivi d'objets en mouvement
Large scale diffusion of information in publish-subscribe systems by Raphaël Chand( Book )

2 editions published in 2005 in English and held by 3 WorldCat member libraries worldwide

CETTE THESE EST CONSACREE A L'ETUDE DE RESEAUX DE TYPE PUBLICATION/ABONNEMENT DANS LESQUELS DES PRODUCTEURS PUBLIENT DE L'INFORMATION A L'INTENTION DE CONSOMMATEURS. LES DONNEES SONT DIFFUSEES SELECTIVEMENT EN FONCTION DE LEUR NATURE ET DES INTERETS DES CONSOMMATEURS. LES RESEAUX DE CE TYPE SONT DEVENUS UN THEME DE RECHERCHE TRES POPULAIRE CAR ILS OFFRENT UN GRAND DECOUPLAGE ENTRE LES ELEMENTS DU SYSTEME, PERMETTANT DE PASSER AISEMENT A L'ECHELLE. DANS UN PREMIER TEMPS, NOUS PRESENTONS UN SYSTEME DE TYPE PUBLICATION/ABONNEMENT QUE NOUS AVONS SPECIALEMENT CONCU POUR LA DIFFUSION EFFICACE ET FIABLE DE DOCUMENTS XML A LARGE ECHELLE. NOTRE SYSTEME INTEGRE PLUSIEURS TECHNOLOGIES ET ALGORITHMES NOVATEURS, TELS QUE L'AGREGATION DE SOUSCRIPTIONS. NOUS AVONS REALISE DE NOMBREUSES SIMULATIONS ET NOUS AVONS DEPLOYE NOTRE SYSTEME SUR LA PLATE-FORME EXPERIMENTALE MONDIALE PLANETLAB. LES RESULTATS MONTRENT QUE NOTRE SYSTEME EST EFFICACE ET PASSE AISEMENT A L'ECHELLE, ET EST CAPABLE DE SE RECONSTITUER RAPIDEMENT SUITE A DES PANNES DE LIENS OU DE ROUTEURS. DANS UN DEUXIEME TEMPS, NOUS PROPOSONS UNE APPROCHE ORIGINALE POUR CONCEVOIR UN SYSTEME DE TYPE PUBLICATION/ABONNEMENT. NOTRE SYSTEME EST BASE SUR LE CONCEPT PAIR-A-PAIR. LA PRINCIPALE INNOVATION EST L'UTILISATION D'UN PROTOCOLE DE ROUTAGE EXTREMEMENT SIMPLE. IL EN RESULTE UNE CERTAINE PERTE DE PRECISION, QUE NOUS POUVONS CEPENDANT MINIMISER EN ORGANISANT LES PAIRS EN FONCTION DE LEURS INTERETS DANS DES ''COMMUNAUTES SEMANTIQUES'', AU MOYEN DE METRIQUES DE PROXIMITE ADEQUATES. L'EVALUATION EXPERIMENTALE MONTRE QUE LE ROUTAGE EST EFFECTIVEMENT PRECIS ET TRES EFFICACE EN PRESENCE DE GRANDES POPULATIONS DE CONSOMMATEURS
Stabilisation globale de systèmes dynamiques positifs malconnus : applications en biologie by Ludovic Mailleret( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Les travaux présentés dans cette thèse portent sur des problématiques de contrôle de systèmes non-linéaires d'équations différentielles ordinaires positifs. Les modèles issus des sciences de la vie, chargés de décrire l'évolution de quantités positives, appartiennent à cette classe de systèmes. Ces modèles comportent souvent certaines parties, liées à la biologie du processus considéré, qui sont de formes analytiques incertaines mais connues qualitativement. Nous proposons ici d'exploiter ces propriétés qualitatives au moyen d'une commande utilisant une mesure de l'incertitude, afin d'imposer au système un comportement simple : la convergence de l'état vers un équilibre unique et réglable. Après un bref état de l'art sur les systèmes positifs, nous introduisons les classes de systèmes pour lesquelles une stratégie de commande assurant la stabilisation globale est proposée. L'ajout d'une partie adaptative améliore cette stratégie, permettant alors de rejoindre un équilibre choisi, en dépit d'incertitudes paramétriques. Nous appliquons ces résultats théoriques à plusieurs modèles biologiques : gestion de la pêche, culture de micro-organismes en bioréacteurs... Une de nos principales applications porte sur la stabilisation de bioprocédés exploitant e réseaux trophiques microbiens en cascade. Nous avons pu valider expérimentalement notre démarche sur un cas particulier de ces procédés : un fermenteur anaérobie, procédé de traitement biologique de l'eau à haut rendement mais très sensible aux conditions opératoires
Contribution à l'étude de l'estimation du contraste en interférométrie by Yoann Cavallin( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Ce mémoire consiste en l'étude statistique de signaux astrophysiques. Il porte sur l'estimation du contraste des franges d'interférence issu d'un interféromètre stellaire de Michelson. Dans un premier temps, le problème de la modélisation statistique d'une image interférométrique s'est posé. Une expression analytique des moments du premier et second ordre de l'image a été déterminée pour un interféromètre à longue base. Puis l'accent a été mis sur la difficulté d'établir la distribution de l'image, notamment lorsque l'acquisition en comptage de photons est envisagée. Plusieurs solutions sont proposées. Pour l'une d'elles, la distribution gaussienne, la connaissance des moments a permis de calculer une borne asymptotique sur la variance du contraste estimé: la borne de Cramér-Rao. Cette borne est comparée à la variance des estimateurs actuels du contraste, puis recalculée lorsque le paramètre de Fried - relatif à l'intensité de la turbulence atmosphérique - est supposé inconnu. Dans un second temps, la question de l'estimation du contraste a été soulevée. Cette étude présente deux difficultés majeures. Tout d'abord, les méthodes paramétriques s'appuyant sur la loi de distribution sont à exclure, car cette distribution est supposée partiellement connue ou difficilement exploitable. Seul un modèle de la densité spectrale du processus est accessible. Dans le cas de signaux stationnaires (ou homogènes), une solution consiste à utiliser l'estimateur issu du critère de Whittle. Ensuite, le caractère non homogène de l'image empêche l'utilisation de la plupart des méthodes classiques d'estimation. Néanmoins il est possible d'établir un critère d'estimation paramétrique, de structure identique au critère de Whittle, mais basé sur la distribution de la transformée de Fourier discrète du signal. L'estimation du contraste a été menée à partir de ce critère. Les avantages liés à l'utilisation de l'estimateur proposé sont observés avec des images simulées, comme avec des données interférométriques de l'étoile Véga. De plus un algorithme itératif utilisé pour la minimisation du critère a été étudié. Pour cette application, la convergence globale de l'algorithme est prouvée
Mise en oeuvre et évaluation d'outils de fusion d'image en radiothérapie by Pierre-Yves Bondiau( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Cancer is a major problem of public health. Treatment can be done in a general or loco-regional way, in which case medical images are important as they specify the localization of the tumour. The objective of the radiotherapy is to deliver a curative dose of radiation in the target volume while sparing the organs at risks (OAR). The determination of the accurate localization of the targets volume as well as OAF makes it possible to define the ballistics of irradiation beams. After the description of the principles of radiotherapy and cancers treatment, we specify the clinical stakes of ocular, cerebral and prostatic tumours. We review the state of the art image matching algorithms, with a didactic purpose for the medical community. The results of image matching techniques are presented in the framework of cerebral and prostatic radiotherapy planning in order to determine the types of applicable method in oncology. Then, we present the prospects for these methods with respect to the anatomical localization and automatic segmentation. Applications of automatic segmentation and the evaluation of the results in the framework of brain tumour are described after a review of the various segmentation methods according to anatomical localizations. An original application is the digital simulation of the virtual tumoral growth and the comparison with the real growth of a cerebral tumour presented by a patient. We conclude with the future developments possible of the tools for image processing in radiotherapy as well as the tracks of research to be explored in oncology
Analyse statique de programmes Java [et] application à la parallélisation by Romain Guider( Book )

2 editions published in 2000 in French and held by 3 WorldCat member libraries worldwide

Nous proposons une analyse statique de programmes à objets par interprétation abstraite. L'analyse de programmes à objets comporte deux particularités que nous traitons séparément : l'analyse du flot de contrôle et la représentation des graphes d'objets. Dans un premier temps, nous présentons une analyse de flot de contrôle paramétrée par une représentation abstraite de graphes d'objets. Cette analyse est générique et peut servir de base à de nombreuses applications. De plus, elle est conçue par interprétation abstraite ce qui nous permet de montrer sa correction sous certaines hypothèses qui portent sur le domaine employé pour représenter les graphes d'objets. Nous dérivons de notre interpréteur abstrait une présentation des problèmes d'analyse statique sous la forme d'un système d'équations et nous prouvons que ce système d'équations est équivalent à l'interpréteur abstrait. La présentation sous cette forme permet de résoudre efficacement les problèmes d'analyse en utilisant des stratégies d'itérations de point fixe sophistiquées (et aussi d'utiliser des solveurs génériques) et de limiter le nombre de calculs qui est fait [sic] pendant les itérations de point fixe en les reportant sur la phase de construction du système d'équation (...). Dans un second temps nous instancions notre analyseur statique en utilisant un domaine abstrait pour les graphes d'objets qui est dû à Sagiv, Reps et Wilhelm. Nous étendons ce domaine pour construire une analyse interprocédurale (...). Enfin, nous décrivons une application de l'analyse statique à la parallélisation et à la distribution de programmes à objets (...)
Modèles de contours actifs basés régions pour la segmentation d'images et de vidéos by Stéphanie Jehan-Besson( Book )

2 editions published in 2003 in French and held by 3 WorldCat member libraries worldwide

L'objectif de cette thèse est l'élaboration de modèles de contours actifs basés régions pour la segmentation d'images et de vidéos. Nous proposons de segmenter les régions ou objets en minimisant une fonctionnelle composée d'intégrales de régions et d'intégrales de contours. Dans ce cadre de travail, les fonctions caractérisant les régions ou les contours sont appelées « descripteurs ». L'équation d'évolution associée est calculée en utilisant les outils de dérivation de domaines. Par ailleurs, nous prenons en compte le cas des descripteurs dépendant de la région qui évoluent au cours de la propagation du contour. Le cadre de travail développé est ensuite mis en œuvre pour des applications variées de segmentation comprenant la segmentation du visage en utilisant le déterminant de la matrice de covariance, la segmentation de régions d'intérêt en utilisant une distance à un histogramme de référence et la détection des objets vidéos
Analyse et modélisation du rythme cardio-respiratoire au repos et à l'effort by Ghailen Laouini( Book )

2 editions published in 2012 in French and held by 3 WorldCat member libraries worldwide

In this thesis, we focus on the modelling of heart rate variability (HRV) during exercise. The objective of this thesis is to study HRV during exercise, while taking respiration into account. The IPFM model helps to explain the mechanism used by the automatic nervous system to control the heartbeat. With peaks generated by this model, we study the relationship between the heart period, which is the difference between two successive RR peaks, and the modulation signal. We suggest the TVIPFM model with three different approaches (A, B, C), as an alternative of the IPFM model to estimate the modulation of the autonomic nervous system, adapted to the exercise. The TVIPFM model then allows for correction of the heart rate variability. This variability will be filtered around the frequency band of respiration in the time-frequency domain, using different methods of time-frequency-representations. This is explained by the fact that the signal being observed is not stationary. We present different time-frequency representations for the linear and quadratic filtering and justify their use. The EMD is also addressed because of its decomposition property in “monocomponent” signals. A simulation allowing us to select the best IPFM correction and the best time-frequency representation for filtering, a real application range is proposed. In it, we show that using this process, correlation between age of transplantation and heart rate variability indeed exists
Markov chains and decision processes for congestion avoidance and power control by Balakrishna Jitendra Prabhu( Book )

2 editions published in 2005 in English and held by 3 WorldCat member libraries worldwide

This thesis is based on some applications of Markov chains and decision processes for congestion and power control. First, we study the behaviour of the window size of an MIMD congestion control algorithm when subject to different loss processes. We show that the logarithm of the window size follows an additive recursive equation, which can be modelled as a Markov chain. We also show that the throughput is inversely proportional to the packet loss probability. Next, we study a continuous time model for the window size of a general increase and instantaneous decrease congestion control algorithm. We provide conditions under which two congestion control algorithms have related window size behaviour. Next, we model the ratio of the instantaneous rates of two competing MIMD sessions. For heterogeneous sources, we show that the fairness index can be improved by introducing rate-dependent losses at an intensity which is greater than a threshold. We also study the bandwidth sharing between AIMD and MIMD sources under synchronous losses. Next, we model the instantaneous and the average queue sizes of a RED enabled queue as a non-homogeneous Quasi-Birth-Death process. In the limit when the averaging parameter goes to zero, we use singular perturbation find the joint distribution of the average and the instantaneousqueue sizes. A problem related to energy-delay tradeoff in a wireless device is studied next. In each slot, the device has to decide whether to transmit data or to leave the battery idle in order to increase the battery lifetime. Finally, through simulations we study the effect of two threshold based channel switching policies in UMTS
Codes quasi-cycliques : constructions algébriques et représentations par treillis by Anne Desideri Bracco( Book )

2 editions published in 2003 in French and held by 3 WorldCat member libraries worldwide

Quasi-cyclic codes are block codes. They generalize cyclic codes and approximate convolutional codes. Moreover, quasi-cyclic codes are asymptotically good. Trellises are oriented labeled graphs, which represent block codes. Trellises could be conventional or tail-biting. We present two different algebraic approaches to quasi-cyclic codes. We associate the algebraic structure, which extends the cubic construction (a+x | b+x | a+b+x) into the quintic and the septic constructions, to the conventional trellises. The cyclic approach is associated to the tail-biting trellises. We introduce a graphical construction for quasi-cyclic codes; this construction is based on trellises. In the case of convolutional trellises, this construction is a generalization of the squared and cubing constructions proposed by G.D. Forney Jr. Some algebraic constructions of new self-dual binary codes are given. These new codes have parameters [70, 35, 12] or [72, 36, 12] or other. They are obtained with the cubic, the quintic or the septic construction and they are constructed with the computer language Magma
Conception de modèles haut niveau pour l'optimisation et la vérification de systèmes Bluetooth by Alexandre Lewicki( Book )

2 editions published in 2008 in English and held by 2 WorldCat member libraries worldwide

The different works conducted in this thesis were to design high level functional models that were used in a wireless system design flow. The MCSE methodology was followed to design those models and the results have been used for Bluetooth technology system design and verification. The first part of the work presents the MCSE methodology that has been used for the design of the models. Starting from the specification of a concrete use case, a temperature sensor, we designed a functional model of the system with successive refinement steps. The models were then translated in SystemC, a C++ library that allows describing both hardware and software parts of a system. The results of the exploitation of the models in a wireless network simulation can be used for protocol analysis, performance analysis and performance exploration. The second part of the work was to introduce the functional models in a hardware verification environment. Two different techniques for design engineers and verification engineers have been settled. This technique brings enhanced verification features with the possibility to write complex tests
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.90 (from 0.88 for Large scal ... to 0.92 for Analyse et ...)

Alternative Names
École doctorale 84

École doctorale STIC

ED 084

ED 84

ED084

ED84

Languages
French (30)

English (10)