WorldCat Identities

Duhamel, Pierre

Overview
Works: 75 works in 122 publications in 3 languages and 645 library holdings
Genres: Academic theses 
Roles: Author, Thesis advisor, Other, Opponent
Classifications: TK6680.5, 621.388
Publication Timeline
.
Most widely held works by Pierre Duhamel
Joint source-channel decoding : a cross-layer perspective with application in video broadcasting over mobile and wireless networks by Pierre Duhamel( )

24 editions published between 2009 and 2010 in English and held by 545 WorldCat member libraries worldwide

Treats joint source and channel decoding in an integrated way Gives a clear description of the problems in the field together with the mathematical tools for their solution Contains many detailed examples useful for practical applications of the theory to video broadcasting over mobile and wireless networks Traditionally, cross-layer and joint source-channel coding were seen as incompatible with classically structured networks but recent advances in theory changed this situation. Joint source-channel decoding is now seen as a viable alternative to separate decoding of source and channel codes, if the protocol layers are taken into account. A joint source/protocol/channel approach is thus addressed in this book: all levels of the protocol stack are considered, showing how the information in each layer influences the others. This book provides the tools to show how cross-layer and joint source-channel coding and decoding are now compatible with present-day mobile and wireless networks, with a particular application to the key area of video transmission to mobiles. Typical applications are broadcasting, or point-to-point delivery of multimedia contents, which are very timely in the context of the current development of mobile services such as audio (MPEG4 AAC) or video (H263, H264) transmission using recent wireless transmission standards (DVH-H, DVB-SH, WiMAX, LTE). This cross-disciplinary book is ideal for graduate students, researchers, and more generally professionals working either in signal processing for communications or in networking applications, interested in reliable multimedia transmission. This book is also of interest to people involved in cross-layer optimization of mobile networks. Its content may provide them with other points of view on their optimization problem, enlarging the set of tools which they could use. Pierre Duhamel is director of research at CNRS/ LSS and has previously held research positions at Thomson-CSF, CNET, and ENST, where he was head of the Signal and Image Processing Department. He has served as chairman of the DSP committee and associate Editor of the IEEE Transactions on Signal Processing and Signal Processing Letters, as well as acting as a co-chair at MMSP and ICASSP conferences. He was awarded the Grand Prix France Telecom by the French Science Academy in 2000. He is co-author of more than 80 papers in international journals, 250 conference proceedings, and 28 patents. Michel Kieffer is an assistant professor in signal processing for communications at the Universiť Paris-Sud and a researcher at the Laboratoire des Signaux et Sysẗmes, Gif-sur-Yvette, France. His research interests are in joint source-channel coding and decoding techniques for the reliable transmission of multimedia contents. He serves as associate editor of Signal Processing (Elsevier). He is co-author of more than 90 contributions to journals, conference proceedings, and book chapters. Treats joint source and channel decoding in an integrated way Gives a clear description of the problems in the field together with the mathematical tools for their solution Contains many detailed examples useful for practical applications of the theory to video broadcasting over mobile and wireless networks
Algorithmes de transformées discrètes rapides pour convolution cyclique et de convolution cyclique pour transformées rapides by Pierre Duhamel( Book )

4 editions published in 1986 in French and held by 4 WorldCat member libraries worldwide

Nous présentons tout d'abord les différentes transformées qui seront considérées dans ce travail (Transformées en Nombres Entiers - TNE -, Transformées de Fourier - TFR -, Transformées polynomiales - TP -, Transformées en Cosinus Discrètes - TCD -) de manière homogène. Puis, nous utilisons le lien entre TNE et TP pour proposer une nouvelle famille de TNE avec 2 comme racine de l'unité incluant des transformées classiques (Fermat, Mersenne, etc...), mais aussi de nouvelles transformées de plus grande longueur pour une dynamique donnée. Nous montrons également une propriété de décomposition de l'arithmétique dans cette classe de transformées. Nous proposons également un ensemble d'algorithmes de TNE à nombre minimum de décalages. Dans le cadre des TFR, nous avons proposé un algorithme connu sous le nom de "split-radix". L'application de cet algorithme à des données complexes, réelles, ou réelles et symétriques a permis d'obtenir les programmes demandant à chaque fois les nombres d'opérations (multiplications et additions) les plus faibles connus, tout en gardant une structure régulière. Nous avons pu montrer que toute amélioration éventuelle de l'un de ces algorithmes se traduirait par une amélioration correspondante sur tous les autres. D'autre part, nous avons montré que leur structure était semblable à celle des algorithmes optimaux vis à vis du nombre de multiplications. La recherche d'algorithmes de TCD à nombre minimum de multiplications nous a permis de mettre en évidence l'équivalence entre une TCD de longueur 2n et une convolution cyclique. Ceci nous a conduits à proposer deux nouvelles architectures de TCD : l'une présente l'avantage de ne nécessiter qu'une multiplication générale par point de calcul, mais nécessite un arithmétique modulo. L'autre basée sur l'utilisation de l'arithmétique distribuée, présente une structure très simple, réutilisable pour d'autres types de transformées rapides
ALGORITHMES RAPIDES DE FILTRAGE A REPONSE IMPULSIONELLE FINIE ADAPTES A UNE IMPLANTATION SUR UN PROCESSEUR SPECIALISE EN TRAITEMENT DU SIGNAL by Anissa Mokraoui( Book )

2 editions published in 1994 in French and held by 3 WorldCat member libraries worldwide

PARMI LES ALGORITHMES RAPIDES QUI ONT ETE PROPOSES POUR LE FILTRAGE A REPONSE IMPULSIONNELLE FINIE (RIF), CERTAINS SONT BASES SUR DES PROPRIETES DE CONVOLUTION CYCLIQUE OU DE CONVOLUTION CLASSIQUE, D'AUTRES UTILISENT LA TRANSFORMEE DE FOURIER RAPIDE (TFR) COMME MOYEN DE CALCUL INTERMEDIAIRE. LA TFR UTILISE EN GENERAL UN GRAND BLOC DE DONNEES QUI ENGENDRE UN DELAI DE TRAITEMENT POUVANT-ETRE INCOMPATIBLE AVEC L'APPLICATION, DE PLUS L'IMPLANTATION DE CES ALGORITHMES NE TIENT PAS COMPTE DE CERTAINES CARACTERISTIQUES MATERIELLES DES PROCESSEURS DE TRAITEMENT DU SIGNAL, LA PLUS SPECIFIQUE RESIDANT DANS LA PRESENCE D'UN MULTIPLIEUR-ACCUMULATEUR RAPIDE (MAC). DE NOUVEAUX ALGORITHMES RAPIDES DE FILTRAGE RIF ONT ETE PROPOSES. CES ALGORITHMES REDUISENT LA COMPLEXITE ARITHMETIQUE TOUT EN CONSERVANT LA STRUCTURE MAC. UNE TECHNIQUE D'IMBRICATION DE CES ALGORITHMES, PERMET DE REDUIRE ENCORE LA CHARGE DE CALCUL. CEPENDANT CETTE ALGORITHMIQUE NE PREND PAS EN CONSIDERATION LES LIMITATIONS MATERIELLES DU PROCESSEUR. EN PARTICULIER LE NOMBRE DE REGISTRES POINTEURS D'ADRESSE NECESSAIRES A L'IMPLANTATION DE L'ALGORITHME NE PEUT DEPASSER LE NOMBRE DE POINTEURS DISPONIBLES DANS LE PROCESSEUR, SANS SE REPERCUTER SUR LE NOMBRE MOYEN DE CYCLES MACHINE NECESSAIRES POUR CALCULER UN POINT DE SORTIE. CE PROBLEME A ETE RENCONTRE AUPARAVANT ET SIGNALE DANS DE NOMBREUSES COMMUNICATIONS. NOUS PROPOSONS UNE SOLUTION QUI CONSISTE A OPTIMISER L'ORGANISATION DES DONNEES EN MEMOIRE DE MANIERE QUE L'ALGORITHME NE NECESSITE EN GENERAL AU TOTAL QU'UN NOMBRE INVARIANT DE 5 POINTEURS. AINSI, L'IMPLANTATION PROPOSEE, PERMET DE REDUIRE DANS LA PLUPART DES CAS LE TEMPS DE CALCUL DE 50% ENVIRON PAR RAPPORT A LA CONVOLUTION DIRECTE, TOUT EN PRESENTANT UN DELAI DE TRAITEMENT (ENTREE/SORTIE) AUSSI PETIT QUE SOUHAITE, INDEPENDANT DE LA LONGUEUR DU FILTRE
Filtrage RIF rapide : algorithmes et architectures by Zhi-Jian Mou( Book )

2 editions published in 1989 in English and held by 3 WorldCat member libraries worldwide

Le filtre à réponse impulsionnelle finie (RIF) joue un rôle des plus importants dans le traitement numérique du signal et représente souvent la principale charge de calcul dans une application soit en logiciel soit en matériel. Cette thèse est divisée en deux parties. La première partie de la thèse traite le problème de la réduction de la complexité arithmétique du filtre RIF. Nous fournissons un ensemble d'algorithmes permettant de 'casser' le filtre habituel en plusieurs sous-filtres échantillonnés, de telle manière que le nombre d'opérations à effectuer se trouve réduit. La deuxième partie étudie non seulement l'implantation de ces sous-filtres mais plus généralement l'architecture des filtres RIF en vue de leur intégration VLSI. Nous présentons une approche unifiée pour tous les algorithmes rapides de filtrage RIF. Le théorème du reste chinois (TRC) constitue la base de l'approche. Tout d'abord nous formulons le filtrage RIF comme un produit polynomial. Ensuite l'application du TRC se fait en trois étapes : 1) interpolation ; 2) filtrage ; 3) reconstruction. L'approche se termine par recouvrement. Sous une présentation pseudocyclique, il est facile de démontrer quelques propriétés utiles des algorithmes. Les algorithmes classiques sont examinés dans ce cadre. Mais l'unification de ces algorithmes n'est pas notre seul objectif. Nous présentons aussi des nouvelles possibilités apportées par cette approche, qui permet d'établir en particulier tous les algorithmes intermédiaires entre traitements temporels et fréquentiels. Nous traitons les algorithmes de petite longueur en détail. Ces algorithmes permettent de réduire la complexité arithmétique en gardant comme brique de base des filtres RIF d'ordre plus petit. Ils sont donc ouverts à diverses implantations. Nous étudions ensuite l'aspect arithmétique du multiplieur-accumulateur d'une part, et de nouvelles architectures d'autre part. Une conception compacte et régulière de l'arbre de Wallace est proposée pour surmonter les difficultés qui empêchaient l'application de cette structure par ailleurs très efficace au niveau du temps de calcul. Nous présentons quelques nouveaux accumulateurs rapides. L'architecture du filtre RIF par l'arithmétique distribuée est analysée en détail. Nous présentons de nouvelles structures ayant les caractéristiques suivantes : sans ROM ; avec l'additionneur carry-save comme brique de base; avec accumulation rapide. En particulier, un nouveau codage est proposé pour profiter de la symétrie des coefficients afin de réduire la quantité de matériel et d'accélérer le calcul
Application du tatouage numérique à la protection de copie by Teddy Furon( Book )

2 editions published in 2002 in French and held by 2 WorldCat member libraries worldwide

Nous considérons dans cette thèse l'utilisation d'une technique de tatouage dans un système de protection de copie pour appareils électronique grand public. Nous décrivons tout d'abord la problématique de la protection de copie.Puis, nous construisons l'architecture d'un système à l'aide de briques de sécurité comme le chiffrement de donnéeset la signature numérique. Contrairement aux approches classiques, le rôle du tatouage a été réduit au minimum :c'est un signal avertissant l'appareil que le contenu est protégé. Il se comporte ainsi comme une deuxième lignede défense dans le système. Deux faits caractérisent la protection de copie : les contenus protégés sont tatoués parla même clé secrète et l'adversaire a accès au détecteur de tatouage. Ceci produit trois attaques malicieuses : l'attaque par contenus tatoués seuls, l'attaque par paires de contenus original/tatoué et l'attaque par oracle. Ainsi,même si la capacité du tatouage a été réduite à un bit dans cette application, la conception d'une telle techniquen'en est pas pour autant moins difficile : une analyse des méthodes à étalement de spectre montre leur faible niveaude sécurité dans ce contexte. Nous inventons alors un nouveau type de méthodes de tatouage, connues sous le nomde tatouage asymétrique. Celui-ci procure un niveau de sécurité plus élevé, mais demande un plus grand nombrede données à traiter. Pour palier cet inconvénient, nous tirons profit de l'information adjacente à l'incrustation pouroptimiser la détection du tatouage. Ceci débouche sur une autre nouvelle méthode baptisée JANIS. Nous cédons ainsi un peu de sécurité pour une plus grande efficacité du détecteur. Pour conclure, ces nouvelles méthodes peuvent justifier le principe de Kerckhoffs dans le cadre de l'utilisation du tatouage pour la protection de copie
Théorie de l'information multi-utilisateur : information adjacente et connaissance imparfaite du canal by Juan Pablo Piantanida( Book )

2 editions published in 2007 in French and held by 2 WorldCat member libraries worldwide

The capacity of single and multi-user channels under imperfect channel knowledge are investigated. We address these channel mismatch scenarios by introducing two novel notions of reliable communication under channel estimation errors, for which we provide an associated coding theorem and its corresponding converse. Basically, we exploit for our purpose an interesting feature of channel estimation through use of pilot symbols. This feature is the availability of the statistic characterizing the quality of channel estimates. We first introduce the notion of estimation-induced outage capacity, where the transmitter and the receiver strive to construct codes for ensuring reliable communication with a quality-of-service, no matter which degree of accuracy estimation arises during a transmission. Then the optimal decoder achieving this capacity is investigated. We derive a practical decoding metric and its achievable rates, for arbitrary memoryless channels that minimizes the average of the transmission error probability over all channel estimation errors. We next consider the effects of imperfect channel estimation at the receivers with imperfect (or without) channel knowledge at the transmitter on the capacity of state-dependent channels withe non-causal CSI at the transmitter (e. g. the multi-user Fading MIMO Broadcast Channel). We address this through the notion of reliable communication based on the average of the transmission error probability over all channel estimation erros. Finally, we consider several implementable DPC schemes for multi-user information embedding, through emphasizing their tight relationship with conventional multi-user information theory
WIBOX - Une passerelle pour une réception robuste de vidéo diffusée via WIMAX et une rediffusion indoor via WIFI by Usman Ali( Book )

2 editions published in 2010 in English and held by 2 WorldCat member libraries worldwide

This PhD study intends to investigate the tools necessary to implement a device (the WiBOX), which can robustly receive video broadcast over WiMAX and then rebroadcast it over WiFi. WiBOX should not only provide WiMAX services access to a WiFi user, but it should also achieve reasonable video quality even with a very weak WiMAX signal, and at the same time for WiFi rebroadcast, it should utilize alternative recovery techniques and avoid delays caused by the conventional retransmissions. This would help to improve WiFi user quality and to remain consistent with the broadcast scenario. To achieve the said objectives one has to consider several robust tools, which are often deployed to solve problems, like packet loss, synchronization failures, high delay, throughput etc., encountered while receiving video through a WiMAX/WiFi-link. These robust tools can be deployed at several protocol layers, among them few notable are, e.g., Joint Source Channel Decoding (JSCD) techniques deployed at the application (APL) layer, iterative decoding techniques deployed at the physical (PHY) layer, and header recovery, estimation, or synchronization tools deployed at various layers. For an efficient performance of these robust tools some cross-layer approach to enable exchange of useful information between the protocol layers and the complete analysis of the protocol stack is required. Some of these tools have requirements that are not compliant with the Standard Protocol Stack (SPS) and require Soft-Permeable Protocol Stack (SPPS), which can allow flow of erroneous packets, containing the soft information, e.g., A Posteriori Probabilities (APP) or likelihood ratios, to the higher layers. More importantly, for performance enhancement these tools should mutually benefit and reinforce each other instead of undoing each other's advantage. To increase the throughput, in both WiMAX and WiFi communication standards, packet aggregation is used; several packets are aggregated at a given layer of the protocol stack in the same burst to be transmitted. One can deploy Frame Synchronization (FS), i.e., to synchronize and recover the aggregated packets, however, when transmission over a noisy channel is considered, FS can cause loss of several error-free or partially errorfree packets, which could otherwise be beneficial for other tools, e.g., JSCD and header recovery tools, functioning at higher layers of the S-PPS. Rebroadcasting video over WiFi can significantly increase packet loss rate as the retransmission is omitted, which can be overcome by the packet-level Forward Error Correction (FEC) techniques. The FS and packet-level FEC decoder for S-PPS should not only allow flow of soft information from the PHY layer but should also mutually benefit from the JSC decoders deployed at the APL layer. In this thesis, we propose several Joint Protocol-Channel Decoding (JPCD) techniques for FS and packet-level FEC decoders operating at S-PPS. In the first part of this thesis, we propose several robust FS methods for S-PPS based on the implicit redundancies present in protocol and the soft information from the soft decoders at PHY layer. First, we propose a trellis-based algorithm that provides the APPs of packet boundaries. The possible successions of packets forming an aggregated packet are described by a trellis. The resulting algorithm is very efficient (optimal in some sense), but requires the knowledge of the whole aggregated packet beforehand, which might not be possible in latency-constrained situations. Thus in a second step, we propose a low-delay and reduced-complexity Sliding Trellis (ST)-based FS technique, where each burst is divided into overlapping windows in which FS is performed. Finally, we propose an on-the-fly three-state (3S) automaton, where packet length is estimated utilizing implicit redundancies and Bayesian hypothesis testing is performed to retrieve the correct FS. These methods are illustrated for the WiMAX Medium Access Control (MAC) layer and do not need any supplementary framing information. Practically, these improvements will result in increasing the amount of packets that can reach the JSC decoders. In the second part, we propose robust packet-level FEC decoder for S-PPS, which in addition to utilizing the introduced redundant FEC packets, uses the soft information (instead of hard bits, i.e., bit-stream of '1's and '0's) provided by the PHY layer along with the protocol redundancies, in order to provide robustness against bit error. Though, it does not impede the flow of soft information as required for S-PPS, it needs support from the header recovery techniques at the lower layers to forward erroneous packets and from the JSC decoders at the APL layer to detect and remove remaining errors. We have investigated the standard RTP-level FEC, and compared the performance of the proposed FEC decoder with alternative approaches. The proposed FS and packet-level FEC techniques would reduce the amount of packets dropped, increase the number of packets relayed to the video decoder functioning at APL layer, and improve the received video quality
Sécurité de base du tatouage pour détecter les altérations des médias distribués dans les réseaux by Ilaria Venturini( Book )

2 editions published between 2006 and 2007 in Multiple languages and held by 2 WorldCat member libraries worldwide

The subject matter of this work is exploitation of digital watermarking for integrity verification on digital media that are published on networks (wired as well as wireless). The approach here followed takes into account network cost and basic security. Network cost requires proposals to be modest under aspects including computation, communication and local storage. Basic security consists of making unreachable secret informations. A digital watermarking scenario which is adequate to the outlined context is proposed and a watermarking scheme for checking whether any substitution of a signal part has been performed, is detailed. For the proposed scheme, fractionary transforms are constructed which possess desirables properties that are important in digital signal processing. Their fractional parameter allows to control the autocorrelation of transformed signals. Two methods for building up fractional transforms which preserve the reality of the input signals are defined. The first method, starting from cosine and sine non-fractional transforms, obtains three classes of cosine and sine fractional transforms. The second method fractionalizes matrices which in general complexify their inputs, as the DFT. Both methods are examined under their decorrelation power on transformed signals. Basic security is discussed under vulnerability towards oracle attacks. Three methods having a wide application area are proposed to modify detection algorithms. The first method randomizes the decision answers by the detector on suitable inputs. The second method delays the decision answers on suitable inputs. The third method is a combination of the two
Conception et évaluation des performances d'un réseau de communication coopératif by Brice Djeumou( Book )

2 editions published in 2008 in French and held by 2 WorldCat member libraries worldwide

This thesis addresses the study of the user cooperation in wireless networks. The goal of the user cooperation is to increase user data rates and/or to improve communications efficiency. We have adopted both a Shannon theoretical approach and a practical approach. Our results in Shannon theory are obtained on some models of cooperative networks. We start with the basic model of cooperative network which is the relay channel and we derive a simple coding theorem for it. Remember that the main results on this channel model are due to Cover and El Gamal. Next we consider more elaborated cooperative networks in order to analyse the impact of inter-user interference. In a first time we consider the interference relay channel (IRC) for which we generalize the results of Cover and El Gamal on relaying strategies. Thereafter, in order to quantify the gain due to the degree of freedom that the cognitive radio allows in the use of the radio frequency spectrum, we introduce a new channel consisting of an IRC in parallel with an interference channel. For this later channel we adopt a game theoretical approach (existence and uniqueness of a predictable and stable state of the network: Nash equilibrium). For the practical approach of the user cooperation, in a first time, we propose two relaying protocols with low complexity levels namely Quantize-and-Forward and Clipped Amplify-and-Forward. Next, for cooperative networks with orthogonality at the receiver node, in order to mitigate the possible performance loss due to the use of the Maximum Ratio Combiner (MRC) and to take advantage (power gain or diversity gain) of the cooperation whatever is the SNR configuration of the network, we develop several new combining schemes
Analyse de performance de systèmes de communications sans-fils exploitant micro et macro-diversité by Ilhem Ouachani( Book )

2 editions published in 2005 in French and held by 2 WorldCat member libraries worldwide

Cette thèse s'intéresse à l'étude de la couche physique des réseaux locaux sans-fils dits WLAN. Durant les dernières décennies, les applications destinées aux réseaux locaux sans-fils sont devenuesde plus en plus nombreuses, d'où la nécessité d'avoir des débits de transmission plus importants. Cependant, la transmission radio souffre de certains problèmes: limitation de la bande fréquentielle du canal, les variations complexes del'environnement de propagation (évanouissements), etc. Les techniques de diversité, plus particulièrement, les techniques de diversité spatiale s'avèrent très efficaces pour réduire l'impact de ces problèmes surles performances des systèmes sans-fils. Cette thèse s'interesse à l'analyse de performance de systèmes de commnicationssans-fils exploitant micro- et macrodiversité. Dans une première partie, les systèmes de communicationMIMO (Multiple-Input Multiple-Output) utilisant la modulation OFDM sont considérés. L'impact de considérerle vrai profile des retards du canal sur la capacité ergodique et la capacité complémentaire est étudié. Puis deuxschémas de codage spatio-emporels de rendement 1/2 sont proposés pour le système MIMO munis deux antennesémetrices. Dans une deuxième partie, les systèmes à antennes multiples dans un contexte de macro-diversité sont étudiés. unmodel de canal basé sur le RFFE est prososé, puis son impact sur la capacité est étudié. Ensuite, un algorithme d'allocation optimale depuissance est proposée pour un système de transmission à deux relais numériques mis en parallèle. L'optimationest faite sous la contrainte d'un certain budget de puissance afin de minimiser le taux d'erreur au niveau de la destination
Efficient Implementation Methodology of Fast FIR Filtering Algorithms on DSP by Anissa Zergaïnoh( )

1 edition published in 1997 in English and held by 2 WorldCat member libraries worldwide

Codage avec information adjacente. Application à la transmission sécurisée de signaux multimédia dans un environnement cellulaire by Abdellatif Zaidi( Book )

in English and held by 2 WorldCat member libraries worldwide

The problem of coding with state information (CCSI) is a new interference cancellation technique for both data transmission and data compression. It concerns all the situations where the transmitter knows a part of the interference in the channel (via a feedback loop, for example). The goal is then to use this knowledge about the channel in order to conceive an efficient coding scheme. One potentially promising application, at the cross-road of both data transmission and data compression, is information embedding. The embedding of information poses many challenges in a variety of research areas. This involves information theory for assessing the theoretic limits of performance, signal processing for implementation issues and communication theory for code design.In this thesis, we consider the problem of information embedding in its three aspects. The work can be structured into four parts. In the first part, information embedding is mathematically formalized as a joint source-channel coding problem. For instance, we show that the problem of CCSI available at the transmitter is basically a joint source-channel coding probelem. Next, we use nested lattices for the design of good low-complexity algebraic-based codes. In the second part, we consider the problem of multiple user information embedding (recognized as a multi-user communication problem) and conceive structured codebooks and appropriate coding strategies that closely approache the theoretic limits. The third part concerns channel sensitivity to little perturbations of the state information. We evaluate the loss in performance due to a weak additive contaminating state information and show that, under certain circumstances, the transmitter must adapt to the available knowledge about the channel, by (eventually) changing its coding strategy. The fourth part determines the performance of CCSI over an AWGN channel with jitter (AWGN&J) in a game theory context
Les Codes Reed-Solomon pour la correction des erreurs impulsives dans les systèmes multiporteuses by Fatma Abdelkefi( Book )

2 editions published in 2002 in French and held by 2 WorldCat member libraries worldwide

Optimisation d'un schéma de codage d'image à base d'une TCD : application à un codeur JPEG pour l'enregistrement numérique à bas débit by Moussa Ammar( Book )

2 editions published in 2002 in French and held by 2 WorldCat member libraries worldwide

Nous considérons dans cette thèse le problème d'otpimisation d'un schéma de codage/décodage JPEG et le post-traitement de réduction des effets de blocs dans les images codées par JPEG.Nous proposons tout d'abord le filtrage de Wiener comme optimisation du banc de filtres de synthèse pour une distorsion minimale et nous cherchons par la suite une quantifcation optimisée. L'algorithme itératif A1 réalise une optimisation conjointe des quantificateurs et du banc de filtres de synthèse. Les résultats experimentaux sur quelques images montrent que le gain total en terme de PSNR peut atteindre 1,36dB et les améliorations visuelles confirment ces résultats.Enfin, nous proposons une nouvelle technique de réduction des effets de blocs basée sur la minimisation de l'énergie haute fréquence du bruit de quantification. L'évaluation de l'algorithme B1montre une diminution des effets de blocs, et de nombreuses illustrations permettent d'appréhender visuellement les performances de cette méthode
Le partage du spectre dans les réseaux décentralisés auto-configurables : une approche par la théorie des jeux by Medina Perlaza Samir( Book )

2 editions published in 2011 in English and held by 2 WorldCat member libraries worldwide

This thesis deals with Ihe analysis and design of techniques for spectrum sharing in decentralized self-configuring netVlorks (OSCN). For such networks, spectrum sharing can be broadly divided Into two consecutive phases that radio devices im- plement autonomously, and often individually. In the first phase, radio devices Identify their avaitable speclrum access opportunities (SAO). For instance, unused frequency bands, time slots, or spatial directions over which their transmissions are alloVied to take place. In the second phase, radio devices determine the optimal transmit/receive configurations for exploiting Ihe available SAOs while guarantee- ing a reliablecommunication. Here, such configurations are described in terms of power allocation policies, modulation-coding schemes, scheduling policies, decoding orders, etc. For the first phase, we introduce a novel notion of SAO. The main idea consist in exploiting the unused spatial directions (SD) associated with the singular values of the channel matrix of a given primary Iink using a water-filling power allocation (PA) policy. The method proposed in this thesis for exploiting such opportunilies is called opportunistic interference alignment (OIA) and relies on the existence of multiple antennas at both transmitters and receivers. This novel spectrum sharing technique is particularly useful in highly dense networks where classical SAOs such as unused time slots andlor unused frequency bands are shortlasting rare events. For the second phase, it is weil known Ihat the main probtem lies in the mutual interference arislng from the simultaneous exploitation of the same set of available SAOs. Therefore, to study such a competitive interaction between the radio device we make use of tools from game theory. Within this framework, we adopt a particular network topology (parallel multiple access channel) to study the existence and the multiplicity of Nash equilibria (NE). The relevance of NE stems from the fact that it represents a network state where each radio device's configuration is optimal with respect 10 the configuration of ait Ihe other devices. In particular, we show that, paradoxically, an important gain in the global performance at the NE is observed by reducing the number of possible configurations radio device is allowed use. Later, we intraduce a novel technique that allows radio devices to achieve NE in a fully decentralized fashion based only on the periodical observation of their individual performance. This (Iearning) technique is independent of both the network topology and the performance metric of the radio devices, More importantly, we show that it converges ta epsilon-NE in relevant types of games in wireless communications, namely potential games among others, We finally tackle the quality of service provisioning in DCSNs. We thus formalize an alternative notion of equilibrium, namely satisfaction equilibrium (SE). Contrary to the existing equilibrium concepts, we show that the SE properly models the problem of QoS in DCSNs. More importantly, we introduce learning techniques that allow achieving a SE relying only on a periodical 1-bit message from the receivers. In particular, as long as the SE exists, these techniques achieve a SE in finite time and are shown to be computationally simpler than those used to achieve NE
Outils de codage source-canal conjoint pour la transmission robuste de vidéo : application à H.263+ et H.264 by Chang-Ming Lee( Book )

2 editions published in 2004 in English and held by 2 WorldCat member libraries worldwide

THIS THESIS CONTAINS A CONTEXT ABOUT THE ROBUST TRANSMISSION OF VIDEO CONTENTS THROUGH THE COMMUNICATION CHANNELS COMPOSED OF MOBILE OR MIXED INTERNET-MOBILE CHANNELS. IT PROPOSES TWO SOLUTIONS TO INCREASE THE ROBUSTNESS OF VIDEO CODER OF H.263+ OR H.264.THE BINARY STREAM GENERATED BY A VIDEO CODER CONSISTS OF THREE DATA TYPES: HEADERS, THE MOTION VECTORS, AND THE TEXTURE. THE TECHNIQUES PROPOSED IN THIS THESIS CONSIST IN THE LAST TWO DATA TYPES.THE FIRST PART CONSISTED IN MODIFYING A VIDEO CODER. THEN, IT IS NOT NECESSARY TO TRANSMIT MOTION VECTOR. FOR THAT, A PROPERTY IN THE SPECTRAL DOMAIN WAS IMPOSED FOR EACH MACROBLOCK OF THE ORIGINAL IMAGE. THIS SPECTRAL PROPERTY WAS THEN REALIZED AT THE DECODER SIDE TO ESTIMATE THE MOTION VECTOR ASSOCIATED WITH EACH MACROBLOCK.THE SECOND PART IS DEVOTED TO A TOOL OF TEXTURE DECODING. THE SOFT INFORMATION PROVIDED BY THE TRANSMISSION CHANNEL IS EXPLOITED. THE STRUCTURE IMPOSED ON THE BINARY STREAM BY THE CODER AND THE SETTING OF DATA PACKET IS ALSO PROFITABLE. THE OBTAINED DECODER IS PERFECTLY COMPATIBLE WITH THE EXISTING STANDARD BY ALLOWING SIGNIFICANT PROFITS OF QUALITY. THE PERFORMANCES ARE ENCOURAGING ON THESE TWO PARTS. IN THE PERSPECTIVES, IT APPEARS ESSENTIAL TO COMBINE THESE TWO TECHNIQUES IN ORDER TO OBTAIN A VIDEO CODER WITHOUT TRANSMISSION OF MOTION VECTOR FOR WHICH THE TEXTURE DECODING WOULD BE DONE EFFECTIVELY
Algorithmes rapides et matrices de toeplitz by Hui-Min Zhang( Book )

1 edition published in 1989 in French and held by 2 WorldCat member libraries worldwide

CETTE THESE CONCERNE L'ETUDE DES ALGORITHMES RAPIDES FONDES SUR DES MATRICES DE TOEPLITZ, DANS LE CONTEXTE DES METHODES D'ANALYSE SPECTRALE HAUTE-RESOLUTION. APRES UNE ANALYSE DES PROPRIETES ET STRUCTURES DES MATRICES DE CORRELATION ESTIMEES PAR DES METHODES CLASSIQUES, NOUS ETUDIONS DANS LA PREMIERE PARTIE DE CETTE THESE, UNE MATRICE DE TOEPLITZ PARTICULIERE LA MATRICE D'OUAMRI. CETTE MATRICE EST LA SEULE MATRICE DE CORRELATION A LA STRUCTURE DE TOEPLITZ QUI PERMETTE D'OBTENIR UNE ESTIMATION ASYMPTOTIQUEMENT SANS BIAIS DES FREQUENCES SINUSOIDALES. A L'AIDE DE CETTE MATRICE, NOUS DEVELOPPONS UN ALGORITHME DE BURG MODIFIE POUR LA MODELISATION AR, QUI EST SUPERIEUR A L'ALGORITHME INITIAL EN CE QUI CONCERNE LE BIAIS D'ESTIMATION DES FREQUENCES, TOUT EN AYANT UNE COMPLEXITE DE CALCUL COMPARABLE. LE DEVELOPPEMENT D'ALGORITHMES RAPIDES FONDES SUR DES MATRICES DE TOEPLITZ POUR DES APPLICATIONS DANS LE DOMAINE DE L'ANALYSE SPECTRALE FAIT L'OBJET DE LA DEUXIEME PARTIE DE LA THESE. DEUX PRINCIPAUX SUJETS ONT ETE ABORDES: LA DECOMPOSITION EN ELEMENTS PROPRES DE LA MATRICE ET LA RESOLUTION DES EQUATIONS DE YULE-WALKER. NOTRE ACCENT SE PORTE SUR LE DEUXIEME. D'ABORD, NOUS EFFECTUONS UNE COMPARAISON DES ALGORITHMES CLASSIQUES POUR LA RESOLUTION DES EQUATIONS DE YULE-WALKER (ALGORITHME DE LEVINSON, DE SCHUR, DE BERLEKAMP-MASSEY, ET DE EUCLIDE). CES ALGORITHMES SONT LIES PAR LEUR INTERPRETATION COMME ALGORITHMES DE CALCUL DES APPROXIMANTS DE PADE. EN LES CLASSANT DANS LES DEUX CATEGORIES SUIVANTES: ALGORITHME A UN PASSAGE ET ALGORITHME A DEUX PASSAGES, NOUS MONTRONS QUE L'ENSEMBLE DES ALGORITHMES CLASSIQUES CONNUS N'EST PAS COMPLET, ET NOUS PROPOSONS LES VARIANTES MANQUANTES. ENSUITE, D'UNE FACON GENERALE, NOUS ETUDIONS L'APPLICATION DE LA STRATEGIE DE DOUBLING DE LEVINSON/SCHUR, QUI EST LE PLUS EFFICACE PARMI LES ALGORITHMES DOUBLING POSSIBLES. NOUS L'AVONS IMPLANTE DE DEUX MANIERES DIFFERENTES, EN UTILISANT D'UNE PA
Nouveaux schémas de réception et décodage pour les systèmes OFDM sans fil avec préfixe cyclique ou zéro-padding by Bertrand Muquet( Book )

2 editions published in 2001 in French and held by 2 WorldCat member libraries worldwide

Code à effacement Mojette pour le stockage distribué by Dimitri Pertin( )

2 editions published in 2016 in French and held by 2 WorldCat member libraries worldwide

Les codes à effacement permettent de générer de la redondance de données numériques dans un système de stockage distribué. Cette redondance permet de restaurer une partie manquante des données en cas de panne. L'avantage des codes est de réduire considérablement la quantité de redondance générée par rapport aux techniques classiques de réplication. Toutefois, cette réduction s'accompagne d'une complexité calculatoire significative, pénalisant les performances d'encodage et de décodage, ce qui limite leur utilisation aux données froides. Dans cette thèse, nous nous intéressons à l'utilisation de la transformation Mojette afin de fournir un code à effacement performant, adapté aux données chaudes. Le code qui en résulte nécessite cependant plus de redondance par rapport aux codes classiques. La première contribution de ces travaux de thèse traite de la conception d'une version systématique du code à effacement Mojette. Cette version a l'avantage d'augmenter significativement les performances du code, tout en réduisant la quantité de redondance nécessaire. La seconde contribution s'intéresse à l'intégration de cette solution au sein du système de fichiers distribué RozoFS. Cette contribution permet au système d'assurer un service continu en cas de panne, tout en étant capable de gérer les données chaudes avec deux fois moins de données par rapport aux systèmes basés sur la réplication. Un troisième axe de recherche se focalise sur la conception d'une méthode distribuée pour générer de nouveaux symboles de mots de code Mojette. Cette technique participe à la restauration d'un seuil de redondance du système de stockage
Codage source-canal conjoint pour la transmission robuste de vidéo sur des canaux radio-mobiles by Jui-Chiu Chiang( Book )

2 editions published in 2004 in English and held by 2 WorldCat member libraries worldwide

WITH THE RAPID ADVANCE OF INTERNET, WIRELESS COMMUNICATION AND DIGITAL TECHNOLOGIES, MULTI-MEDIA AND WIRELESS COMMUNICATION ARE WIDELY RECOGNIZED AS ANOTHER INDUSTRIAL REVOLUTION THAT HAS PROFOUND IMPACT ON FUTURE HUMAN CIVILIZATION. DUE TO THE LIMITED BANDWIDTH, THE VIDEO SIGNAL HAS TO BE HIGHLY COMPRESSED BY EFFICIENT CODING TECHNIQUES. HOWEVER, SUCH SCHEMES SUFFER FROM ERROR PROPAGATION PROBLEM UNDER THE ERROR-PHONE ENVIRONMENT BECAUSE OF THE USE OF ENTROPY CODING AND MOTION PREDICTION. THUS, THE DEMAND FOR EFFICIENT COMPRESSION ALGORITHMS AS WELL AS RELIABLE CODING TECHNIQUES IS ALWAYS A PARTICULAR CHALLENGE IN WIRELESS TRANSMISSION. IN THIS THESIS, A JOINT SOURCE CHANNEL CODING FOR ROBUST STILL IMAGE AND VIDEO TRANSMISSION IS PROPOSED. THIS CODING SCHEME IS BASED ON OVERSAMPLED FILTERBANKS(OFBS) WHERE AN OVERCOMPLETE REPRESENTATION OF THE INPUT SIGNALS IS PROVIDED. FIRST, AFTER THE PARITY-CHECK MATRIX AND SYNDROME OF AN OFB ARE DERIVED, WE SHOW HOW OFBS CAN BE SEEN AS CHANNEL CODES USING THE REDUNDANCY BETWEEN THE SUBBAND SIGNALS. THEN TWO ALGORITHMS REFERRED TO ERROR DETECTION AND ERROR CORRECTION ARE DEVELOPED USING THIS SYNDROME. IN STILL IMAGE APPLICATION, A RELIABLE TRANSMISSION IS BUILT IMPLEMENTED BY OFBS AND QUANTIZATIONS. THEN, AN EXTENSION OF THESE TECHNIQUES TO VIDEO APPLICATION IS PRESENTED, WHERE A MOTION-COMPENSATED 2D+T VIDEO CODING SCHEME IS PROPOSED. AS DEMONSTRATED IN THE SIMULATION RESULTS, THE ERROR CORRECTION ABILITY OF OFBS IN BOTH APPLICATIONS IS ACHIEVED EVEN IN THE TRANSMISSION ENVIRONMENT WITH HIGH BIT ERROR RATES
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.50 (from 0.47 for Efficient ... to 0.97 for Algorithme ...)

Joint source-channel decoding : a cross-layer perspective with application in video broadcasting over mobile and wireless networks
Covers
Alternative Names
Pierre Duhamel Ph.D. Université Paris-Sud XI - Orsay 1986

Languages