WorldCat Identities

Tourneret, Jean-Yves (19..-....; enseignant-chercheur en traitement du signal)

Overview
Works: 81 works in 91 publications in 2 languages and 94 library holdings
Roles: Thesis advisor, Other, Opponent, Contributor, Author
Publication Timeline
.
Most widely held works by Jean-Yves Tourneret
Lois Gamma multivariées pour le traitement d'images radar by Florent Chatelain( Book )

2 editions published in 2007 in French and held by 2 WorldCat member libraries worldwide

The wavefront amplitude of many optical systems can be modeled as a sum of complex components distributed according to Gaussian distributions. In particular this is the case for active imaging sytems such as RADAR systems. The resulting intensity measurements are the sum of the squared modulus of these complex Gaussian components. Parameter estimation and detection problems require to determine accurately the statistical properties of the collected intensities. The subject of this thesis consists of studying families of multivariate gamma based distributions useful to solve estimation and detection problems in different image processing applications. Multivariate extensions of the uni-dimensional gamma distribution make possible to model the spatial correlations of the observed data as well as the correlation between different images. Therefore, these distributions are potentially interesting for parameter estimation and detection in many applications
Contribution à la détection de modèles paramétriques en présence de bruit additif et multiplicatif by Martial Coulon( Book )

2 editions published in 1999 in French and held by 2 WorldCat member libraries worldwide

Dans cette thèse sont étudiés plusieurs problèmes de détection de modèles paramétriques, dans des contextes différents concernant la stationnarité (ou la non-stationnarité) des processus et la nature du bruit (additif ou multiplicatif). On envisage dans un premier temps un problème de détection dans un contexte de bruit additif "classique''. Il s'agit de choisir entre un processus AR bruité et un processus ARMA bruité, lorsque ces deux processus ont le même spectre. Des techniques basées sur les cumulants d'ordre supérieur sont alors développées et des performances asymptotiques sont fournies. On s'est intéressé dans la suite de la thèse à des problèmes de détection dans un environnement de bruit multiplicatif. On a d'abord cherché à détecter la présence de bruit multiplicatif sur des signaux stationnaires, plus particulièrement des processus ARMA. Des détecteurs utilisant cette fois également les cumulants sont proposés et étudiés. La détection de ruptures abruptes dans des signaux non-stationnaires perturbés par du bruit multiplicatif est alors envisagée. Deux approches sont considérées : l'approche bayésienne et l'approche par les moindres carrés. Ces méthodes suscitent l'utilisation soit d'algorithmes stochastiques, comme l'algorithme de Metropolis-Hastings ou le recuit simulé, soit de la programmation dynamique, qui a l'avantage de fournir un résultat exact. Ces techniques sont alors appliquées à la détection de contours dans des images radar a synthèse d'ouverture. Les estimateurs bayésiens ou des moindres carrés permettent de construire une carte de puissance de contour. Celle-ci est lissée et on lui applique la méthode de seuillage des dynamiques de contour. L'image résultante est alors formée de contours fermes et squelettisés
Détection et caractérisation de signaux transitoires : application à la surveillance de courbes de charge by Matthieu Sanquer( )

1 edition published in 2013 in French and held by 2 WorldCat member libraries worldwide

L'auteur n'a pas fourni de résumé en français
Estimation et détection en milieu non-homogène : application au traitement spatio-temporel adaptatif by Stéphanie Bidon( Book )

2 editions published in 2008 in French and held by 2 WorldCat member libraries worldwide

Pour un radar aéroporté, la détection de cibles nécessite, de par la nature du fouillis de sol, la mise en place d'un filtre spatio-temporel adaptatif. Les détecteurs basés sur l'hypothèse d'un milieu homogène sont souvent mis à mal dans un environnement réel, où les caractéristiques du fouillis peuvent varier significativement en distance et en angle. Diverses stratégies existent pour contrer les effets délétères de l'hétérogénéité. La thèse propose d'approfondir deux de ces stratégies. Plus précisément, un nouveau modèle de données est présenté dans un contexte Bayésien : il intègre à la fois une relation originale d'hétérogénéité et de connaissance a priori. De nouveaux estimateurs de la matrice de covariance du bruit ainsi que de nouveaux détecteurs sont calculés à partir de ce modèle et étudiés par simulations numériques. Les résultats obtenus montrent que le modèle proposé permet d'intégrer de manière appropriée l'information a priori dans le processus de détection
Caractérisation aveugle de la courbe de charge électrique : détection, classification et estimation des usages dans les secteurs résidentiel et tertiaire by Mabrouka El Guedri( )

2 editions published between 2009 and 2010 in French and held by 2 WorldCat member libraries worldwide

Residential and tertiary appliances characterization in real conditions from the unique measurement available at the utility service entry (the active and/or reactive power) has been little studied. This thesis investigates new methods and approaches to an entirely non-intrusive characterization of electric appliances. Our aim is to extract several descriptors of the targeted end-uses, given one source mixture of an unknown number of non-stationary signals. This study emphasizes four areas: appliances detection, classification and estimation (consumed energy, magnitude) and the electric load decomposition problem. The proposed techniques are demonstrated with real data including an experimental house and two “real” houses. One our major contribution is a non-intrusive solution of a residential electric load segmentation and mapping the daily consumed energy into its major components (space-heating by convectors, water heater and refrigerators). Ameliorations of some algorithms and their evaluation on large real data are required in order to evaluate the robustness of the proposed methods. As future works, we detail a generic approach using a probabilistic model of the electric load events which addresses the problem of the electric load decomposition (sources separation) in the framework of Bayesian approaches
Contribution à l'étude de modèles ARMA non gaussiens by Jean-Yves Tourneret( Book )

2 editions published in 1992 in French and held by 2 WorldCat member libraries worldwide

UNE HYPOTHESE HABITUELLE RENCONTREE DANS LA PLUPART DES TRAVAUX THEORIQUES ET APPLIQUEE EST L'HYPOTHESE GAUSSIENNE. BEAUCOUP D'OUTILS DE TRAITEMENT DU SIGNAL ONT ETE DEVELOPPES SOUS CETTE HYPOTHESE. PAR EXEMPLE, LA MODELISATION PARAMETRIQUE, QUI S'EST AVEREE TRES UTILE DANS PLUSIEURS DOMAINES COMME L'ANALYSE SPECTRALE OU LA CLASSIFICATION, EST GENERALEMENT ETUDIEE DANS LE CAS DE SIGNAUX GAUSSIENS. MAIS DURANT CES DERNIERES ANNEES, L'INTERET POUR LES PROCESSUS NON GAUSSIENS N'A CESSE D'AUGMENTER. DE NOUVELLES TECHNIQUES ONT ETE MISES AU POINT POUR CES PROCESSUS COMME CELLES BASEES SUR LES STATISTIQUES D'ORDRE SUPERIEUR. LE BUT DE CETTE THESE EST D'ETUDIER CERTAINES PROPRIETES STATISTIQUES DES MODELES ARMA EXCITES PAR DES ENTREES NON-GAUSSIENNES. LA PREMIERE PARTIE DE CE MANUSCRIT CONSISTE A ETUDIER LES LOIS DE LA SORTIE DE MODELES AR, MA OU ARMA. THEORIQUEMENT, L'ENTREE D'UN TEL MODELE DOIT VERIFIER DES HYPOTHESES TRES CONTRAIGNANTES POUR QUE LA SORTIE DE CE MEME MODELE SOIT GAUSSIENNE. EN PRATIQUE, NOUS MONTRONS QUE LA LOI DE LA SORTIE D'UN MODELE AR, MA OU ARMA EST SOUVENT TRES PROCHE D'UNE GAUSSIENNE, CE QUI PERMET DE JUSTIFIER CETTE HYPOTHESE COMMUNEMENT ADMISE. DANS LA SECONDE PARTIE DE CE TRAVAIL, NOUS ETUDIONS CERTAINS ESTIMATEURS PARAMETRIQUES. LA PLUPART DES ESTIMATEURS CONVENTIONNELS DE MODELES AR, MA OU ARMA SONT ASYMPTOTIQUEMENT GAUSSIENS. NOUS PROPOSONS ALORS UN NOUVEL ESTIMATEUR BASE SUR LA STATISTIQUE D'ORDRE POUR L'IDENTIFICATION DES MODELES MA. CET ESTIMATEUR, DENOTE PAR ESTIMATEUR O.S., EST COMPARE A L'ESTIMATEUR DES MOINDRES CARRES ET NOUS MONTRONS QU'IL N'EST PAS GAUSSIEN. DANS LA TROISIEME PARTIE DE CETTE THESE, NOUS COMMENCONS PAR REALISER UNE SYNTHESE DES PRINCIPAUX TRAVAUX CONCERNANT L'IDENTIFICATION AR, MA OU ARMA AUX ORDRES SUPERIEURS. DEUX DE CES METHODES D'IDENTIFICATION SONT ALORS COMPAREES A CELLE BASEE SUR LA STATISTIQUE D'ORDRE. ENFIN, DANS LA QUATRIEME PARTIE, NOUS EFFECTUONS UNE ETUDE STATISTIQUE DE DEUX VECTEURS PARAMETRES, OBTENUS PAR UNE TRANSFORMATION BIJECTIVE DES PARAMETRES AR: LES COEFFICIENTS CEPSTRAUX ET LES COEFFICIENTS DE REFLEXION
Détection de ruptures multiples dans des séries temporelles multivariées : application à l'inférence de réseaux de dépendance by Flore Harlé( )

1 edition published in 2016 in French and held by 2 WorldCat member libraries worldwide

This thesis presents a method for the multiple change-points detection in multivariate time series, and exploits the results to estimate the relationships between the components of the system. The originality of the model, called the Bernoulli Detector, relies on the combination of a local statistics from a robust test, based on the computation of ranks, with a global Bayesian framework. This non parametric model does not require strong hypothesis on the distribution of the observations. It is applicable without modification on gaussian data as well as data corrupted by outliers. The detection of a single change-point is controlled even for small samples. In a multivariate context, a term is introduced to model the dependencies between the changes, assuming that if two components are connected, the events occurring in the first one tend to affect the second one instantaneously. Thanks to this flexible model, the segmentation is sensitive to common changes shared by several signals but also to isolated changes occurring in a single signal. The method is compared with other solutions of the literature, especially on real datasets of electrical household consumption and genomic measurements. These experiments enhance the interest of the model for the detection of change-points in independent, conditionally independent or fully connected signals. The synchronization of the change-points within the time series is finally exploited in order to estimate the relationships between the variables, with the Bayesian network formalism. By adapting the score function of a structure learning method, it is checked that the independency model that describes the system can be partly retrieved through the information given by the change-points, estimated by the Bernoulli Detector
Apprentissage d'arbres de convolutions pour la représentation parcimonieuse by Olivier Chabiron( Book )

2 editions published in 2015 in French and held by 2 WorldCat member libraries worldwide

The dictionary learning problem has received increasing attention for the last ten years. DL is an adaptive approach for sparse data representation. Many state-of-the-art DL methods provide good performances for problems such as approximation, denoising and inverse problems. However, their numerical complexity restricts their use to small image patches. Thus, dictionary learning does not capture large features and is not a viable option for many applications handling large images, such as those encountered in remote sensing. In this thesis, we propose and study a new model for dictionary learning, combining convolutional sparse coding and dictionaries defined by convolutional tree structures. The aim of this model is to provide efficient algorithms for large images, avoiding the decomposition of these images into patches. In the first part, we study the optimization of a composition of convolutions with sparse kernels, to reach a target atom (such as a cosine, wavelet or curvelet). This is a non-convex matrix factorization problem. We propose a resolution method based on a Gaus-Seidel scheme, which produces good approximations of target atoms and whose complexity is linear with respect to the image size. Moreover, numerical experiments show that it is possible to find a global minimum. In the second part, we introduce a dictionary structure based on convolutional trees. We propose a dictionary update algorithm adapted to this structure and which complexity remains linear with respect to the image size. Finally, a sparse coding step is added to the algorithm in the last part. For each evolution of the proposed method, we illustrate its approximation abilities with numerical experiments
Statistical Models for the analysis of ASL and BOLD Magnetic Resonance modalities to study brain function and disease by Aina Frau Pascual( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Les modalités d'imagerie fonctionnelle et de perfusion sont étroitement liées car les deux mesurent, directement ou indirectement, le débit sanguin cérébral. D'une part, en utilisant le contraste BOLD (Blood-Oxygen-Level-Dependent), l'imagerie fonctionnelle par résonance magnétique (IRMf) exploite les propriétés magnétiques du sang (oxy et désoxyhémoglobine) pour y mesurer les changements locaux de concentration en oxygène: ce couplage neurovasculaire permet de déduire le fonctionnement du cerveau à partir des images IRMf. D'autre part, l'IRM de perfusion reflète le fonctionnement du système vasculaire cérébral en mesurant directement le débit sanguin cérébral. En particulier, l'IRM du marquage de l'eau artérielle (ASL) n'a pas besoin d'agents de contraste: le traceur est remplacé par des spins de protons endogènes d'eau. Habituellement l'ASL est utilisée pour mesurer la perfusion basale au repos. Toutefois, ces dernières années, il a également été utilisé comme une modalité d'imagerie fonctionnelle (comme fASL) en mesurant les variations de perfusion cérébrale induites par la réalisation de tâches cognitives. Contrairement à l'IRMf standard basée sur le contraste BOLD, les résultats sont quantitatifs, ce qui rend ce type de données intéressantes pour son utilisation dans la recherche clinique.Cette thèse porte sur l'étude de la modalité fASL et sur le développement de nouvelles méthodes pour l'analyser. Comme précédemment réalisé pour les données BOLD, un cadre bayésien est développé pour l'analyse des données fASL. Il fournit un moyen de modéliser les valeurs d'activation et les fonctions de réponse hémodynamique et de perfusion en tant que variables probabilistes dans l'approche de Détection-Estimation Conjointe. Les modèles bayésiens utilisent une connaissance a priori pour l'estimation des paramètres inconnus à travers la spécification de distributions de probabilité. Dans ce travail, nous exploitons cette fonction pour incorporer au modèle des informations physiologiques, afin de rendre l'estimation plus robuste. En particulier, nous utilisons des modèles physiologiques basés sur le modèle de ballon pour obtenir un lien entre les réponses hémodynamiques et de perfusion, puis nous utilisons ce lien dans une distribution a priori pour régulariser l'estimation des réponses. En utilisant information physiologique a priori, une solution de type Markov Chain Monte Carlo (MCMC) a été proposée pour l'estimation des quantités contenues dans le signal IRMf. Étant donné que le coût de calcul de cet algorithme est très élevé, nous reformulons le problème pour utiliser une approche variationnelle (VEM) qui fournit un algorithme beaucoup plus rapide avec des résultats similaires. Dans ce cadre, l'introduction d'information a priori et de contraintes est également plus simple.Ces méthodes ont été évaluées sur deux ensembles de données différentes en utilisant des paradigmes événementiels et du bloc, pour des tâches cognitives très simples. Nous montrons les bonnes performances des méthodes proposées par rapport aux méthodes standards, au niveau des sujets et du groupe. Les résultats expérimentaux montrent que les probabilités a priori physiologiques améliorent l'estimation d'une fonction de réponse de perfusion. Ces résultats démontrent également que le contraste BOLD a une meilleure sensibilité pour la détection de l'activité cérébrale évoquée que fASL, bien que la fASL donne une activation plus localisée, ce qui est conforme à la littérature existante. A partir de ces résultats, nous discutons l'impact de la modélisation de la corrélation spatiale, ainsi que l'impact de l'estimation des réponses temporelles.Ce travail propose de nouvelles contributions méthodologiques pour l'étude de la fASL, et les met en perspective avec les techniques existantes. Ainsi, nous proposons de nouveaux outils pour la communauté neuroscientifique, mis en œuvre en python dans le package PyHRF, pour étudier et comprendre le fonctionnement du cerveau
Classification de modulations linéaires et non-linéaires à l'aide de méthodes bayésiennes by Anchalee Puengnim( Book )

2 editions published in 2008 in English and held by 2 WorldCat member libraries worldwide

La reconnaissance de modulations numériques consiste à identifier, au niveau du récepteur d'une chaîne de transmission, l'alphabet auquel appartiennent les symboles du message transmis. Cette reconnaissance est nécessaire dans de nombreux scénarios de communication, afin, par exemple, de sécuriser les transmissions pour détecter d'éventuels utilisateurs non autorisés ou bien encore de déterminer quel terminal brouille les autres. Le signal observé en réception est généralement affecté d'un certain nombre d'imperfections, dues à une synchronisation imparfaite de l'émetteur et du récepteur, une démodulation imparfaite, une égalisation imparfaite du canal de transmission. Nous proposons plusieurs méthodes de classification qui permettent d'annuler les effets liés aux imperfections de la chaîne de transmission. Les symboles reçus sont alors corrigés puis comparés à ceux du dictionnaire des symboles transmis
Unsupervised Bayesian linear unmixing of gene expression microarrays by Cécile Bazot( )

1 edition published in 2013 in English and held by 2 WorldCat member libraries worldwide

Estimation en temps réel des modes souples des voilures de grande dimension by Patrice Michel( Book )

2 editions published in 2003 in French and held by 2 WorldCat member libraries worldwide

In the aeronautics, the vibrations of an aerofoil can create a critical problem of stability. Aerofoils can even destroy the structure of the plane or simply reduce the quality of the flight. They can also have as a consequence the excitation of badly damped modes which can reduce the performance of laws of orders (based on a rigid model of the plane modifiyng its global dynamics). No long time ago, the rigidity of the aerofoils ensured a frequential decoupling between the structural modes and the piloting modes. Technico-economic constraints lead the aeronautical manufacturers to develop light planes of great scale. Thus, the design of large planes with flexible structure resulted in having these two sets of modes at similar frequencies. In such a context, it becomes difficult to separate the different modes without limiting the maneuvrability of the plane. As a consequence, alternative solutions have be studied. The objective of this thesis is to propose a real time algorithm able to estimate frequencies, amplitudes and possibly the phases of modes with the requirements related to embarked calculation under industrial constraints
Impact des multitrajets sur les performances des systèmes de navigation par satellite : contribution à l'amélioration de la précision de localisation par modélisation bayésienne by Donnay Fleury Nahimana( Book )

2 editions published in 2009 in French and held by 2 WorldCat member libraries worldwide

De nombreuses solutions sont développées pour diminuer l'influence des multitrajets sur la précision et la disponibilité des systèmes GNSS. L'intégration de capteurs supplémentaires dans le système de localisation est l'une des solutions permettant de compenser notamment l'absence de données satellitaires. Un tel système est certes d'une bonne précision mais sa complexité et son coût limitent un usage très répandu.Cette thèse propose une approche algorithmique destinée à améliorer la précision des systèmes GNSS en milieu urbain. L'étude se base sur l'utilisation des signaux GNSS uniquement et une connaissance de l'environnement proche du récepteur à partir d'un modèle 3D du lieu de navigation.La méthode présentée intervient à l'étape de filtrage du signal reçu par le récepteur GNSS. Elle exploite les techniques de filtrage statistique de type Monte Carlo Séquentiels appelées filtre particulaire. L'erreur de position en milieu urbain est liée à l'état de réception des signaux satellitaires (bloqué, direct ou réfléchi). C'est pourquoi une information sur l'environnement du récepteur doit être prise en compte. La thèse propose également un nouveau modèle d'erreurs de pseudodistance qui permet de considérer les conditions de réception du signal dans le calcul de la position.Dans un premier temps, l'état de réception de chaque satellite reçu est supposé connu dans le filtre particulaire. Une chaîne de Markov, valable pour une trajectoire connue du mobile, est préalablement définie pour déduire les états successifs de réception des satellites. Par la suite, on utilise une distribution de Dirichlet pour estimer les états de réception des satellites
Cardiac motion estimation in ultrasound images using a sparse representation and dictionary learning by Nora Leïla Ouzir( Book )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

Les maladies cardiovasculaires sont de nos jours un problème de santé majeur. L'amélioration des méthodes liées au diagnostic de ces maladies représente donc un réel enjeu en cardiologie. Le coeur étant un organe en perpétuel mouvement, l'analyse du mouvement cardiaque est un élément clé pour le diagnostic. Par conséquent, les méthodes dédiées à l'estimation du mouvement cardiaque à partir d'images médicales, plus particulièrement en échocardiographie, font l'objet de nombreux travaux de recherches. Cependant, plusieurs difficultés liées à la complexité du mouvement du coeur ainsi qu'à la qualité des images échographiques restent à surmonter afin d'améliorer la qualité et la précision des estimations. Dans le domaine du traitement d'images, les méthodes basées sur l'apprentissage suscitent de plus en plus d'intérêt. Plus particulièrement, les représentations parcimonieuses et l'apprentissage de dictionnaires ont démontré leur efficacité pour la régularisation de divers problèmes inverses. Cette thèse a ainsi pour but d'explorer l'apport de ces méthodes, qui allient parcimonie et apprentissage, pour l'estimation du mouvement cardiaque. Trois principales contributions sont présentées, chacune traitant différents aspects et problématiques rencontrées dans le cadre de l'estimation du mouvement en échocardiographie. Dans un premier temps, une méthode d'estimation du mouvement cardiaque se basant sur une régularisation parcimonieuse est proposée. Le problème d'estimation du mouvement est formulé dans le cadre d'une minimisation d'énergie, dont le terme d'attache aux données est construit avec l'hypothèse d'un bruit de Rayleigh multiplicatif. Une étape d'apprentissage de dictionnaire permet une régularisation exploitant les propriétés parcimonieuses du mouvement cardiaque, combinée à un terme classique de lissage spatial. Dans un second temps, une méthode robuste de flux optique est présentée. L'objectif de cette approche est de robustifier la méthode d'estimation développée au premier chapitre de manière à la rendre moins sensible aux éléments aberrants. Deux régularisations sont mises en oeuvre, imposant d'une part un lissage spatial et de l'autre la parcimonie des champs de mouvements dans un dictionnaire approprié. Afin d'assurer la robustesse de la méthode vis-à-vis des anomalies, une stratégie de minimisation récursivement pondérée est proposée. Plus précisément, les fonctions employées pour cette pondération sont basées sur la théorie des M-estimateurs. Le dernier travail présenté dans cette thèse, explore une méthode d'estimation du mouvement cardiaque exploitant une régularisation parcimonieuse combinée à un lissage à la fois dans les domaines spatial et temporel. Le problème est formulé dans un cadre général d'estimation de flux optique. La régularisation temporelle proposée impose des trajectoires de mouvement lisses entre images consécutives. De plus, une méthode itérative d'estimation permet d'incorporer les trois termes de régularisations, tout en rendant possible le traitement simultané d'un ensemble d'images. Dans cette thèse, les contributions proposées sont validées en employant des images synthétiques et des simulations réalistes d'images ultrasonores. Ces données avec vérité terrain permettent d'évaluer la précision des approches considérées, et de souligner leur compétitivité par rapport à des méthodes de l'état-del'art. Pour démontrer la faisabilité clinique, des images in vivo de patients sains ou atteints de pathologies sont également considérées pour les deux premières méthodes. Pour la dernière contribution de cette thèse, i.e., exploitant un lissage temporel, une étude préliminaire est menée en utilisant des données de simulation
Subspace-Based Bayesian Blind Source Separation for Hyperspectral Imagery( )

1 edition published in 2009 in English and held by 1 WorldCat member library worldwide

In this paper, a fully Bayesian algorithm for endmember extraction and abundance estimation for hyperspectral imagery is introduced. Following the linear mixing model, each pixel spectrum of the hyperspectral image is decomposed as a linear combination of pure endmember spectra. The estimation of the unknown endmember spectra and the corresponding abundances is conducted in a unified manner by generating the posterior distribution of the unknown parameters under a hierarchical Bayesian model. The proposed model accounts for nonnegativity and full-additivity constraints, and exploits the fact that the endmember spectra lie on a lower dimensional space. A Gibbs algorithm is proposed to generate samples distributed according to the posterior of interest. Simulation results illustrate the accuracy of the proposed joint Bayesian estimator
Cartes auto-organisatrices pour la classification de données symboliques mixtes, de données de type intervalle et de données discrétisées. by Chantal Hajjar( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

This thesis concerns the clustering of symbolic data with bio-inspired geometric methods, more specifically with Self-Organizing Maps. We set up several learning algorithms for the self-organizing maps in order to cluster mixed-feature symbolic data as well as interval-valued data and binned data. Several simulated and real symbolic data sets, including two sets built as part of this thesis, are used to test the proposed methods. In addition, we propose a self-organizing map for binned data in order to accelerate the learning of standard maps, and we use the proposed method for image segmentation
Détection d'évènements simples à partir de mesures sur courant alternatif by Nabil Amirach( )

1 edition published in 2015 in French and held by 1 WorldCat member library worldwide

The need to save energy is an important focus of recent decades, hence the need to monitor the energy consumption of residential and industrial processes. The research works presented in this manuscript are within the monitoring power consumption area in order to enable energy saving. The final goal is to have a clear and reliable knowledge of a given grid. This involves the decomposition of the overall power consumption of the electrical network to provide a detailed analysis of the consumed energy. The objective of this thesis is to develop a non-intrusive approach to achieve the event detection and feature extraction steps, which precede the classification and the power consumption estimation steps. The algorithm resulting from the works performed in this thesis can detect events which occur on the current and associates to them an information vector containing the parameters characterizing the steady and transient states. Then this information vector is used to recognize all the events linked to the same electrical load
Détection et estimation de ruptures noyées dans un bruit multiplicatif : approches classiques en temps-échelle by Marie Chabert( Book )

1 edition published in 1997 in French and held by 1 WorldCat member library worldwide

LA DETECTION DE RUPTURES ABRUPTES FAIT L'OBJET DE NOMBREUSES ETUDES, QUI SUPPOSENT POUR LA PLUPART L'ADDITIVITE DU BRUIT. OR, LE MODELE DE BRUIT MULTIPLICATIF S'AVERE PERTINENT DANS DES DOMAINES VARIES. L'OBJECTIF DE CETTE THESE EST L'ETUDE DE LA DETECTION-ESTIMATION DE RUPTURES NOYEES DANS UN BRUIT MULTIPLICATIF, AVEC DES METHODES CLASSIQUES ET TEMPS-ECHELLE. DES METHODES CLASSIQUES, BASEES SUR LE RAPPORT DE VRAISEMBLANCE, SONT TOUT D'ABORD ENVISAGEES. LES PERFORMANCES DU DETECTEUR OPTIMAL DE NEYMAN-PEARSON SONT ETUDIEES. LES ESTIMATEURS DU MAXIMUM DE VRAISEMBLANCE DES PARAMETRES DE LA RUPTURE ET DU BRUIT SONT MIS EN OEUVRE. LES BORNES DE RAO-CRAMER ASSOCIEES SONT CALCULEES. LE DETECTEUR SOUS-OPTIMAL, BASE SUR LE RAPPORT DE VRAISEMBLANCE GENERALISE, EST FINALEMENT ETUDIE. L'ETUDE DES PROPRIETES STATISTIQUES DE LA TRANSFORMEE EN ONDELETTES DE RUPTURES NOYEES DANS UN BRUIT MULTIPLICATIF BLANC OU COLORE ABOUTIT A L'EXPRESSION DE LA SIGNATURE DE LA RUPTURE MULTIPLICATIVE. L'INFLUENCE, D'UN PRETRAITEMENT NON-LINEAIRE, SUR LES MOMENTS DE LA TRANSFORMEE EN ONDELETTES, EST EGALEMENT ANALYSEE. LA MISE EN OEUVRE DE DETECTEURS TEMPS-ECHELLE BASES SUR LE RAPPORT DE VRAISEMBLANCE S'AVERE D'UNE COMPLEXITE IMPORTANTE, POUR DES PERFORMANCES EQUIVALENTES A CELLES OBTENUES DANS LE DOMAINE TEMPOREL. EN REVANCHE, L'UTILISATION DE LA TRANSFORMEE EN ONDELETTES PEUT ETRE ENVISAGEE POUR LA DETECTION DE RUPTURES LORSQUE LES CONNAISSANCES A PRIORI SONT INCOMPLETES. LA COMPARAISON DES CONTRASTES TEMPORELS ET TEMPS-ECHELLE, AVEC OU SANS PRETRAITEMENT NON LINEAIRES DU PROCESSUS MULTIPLICATIF, PERMET D'EVALUER L'INTERET DE LA TRANSFORMEE EN ONDELETTES ET D'UN PRETRAITEMENT NON LINEAIRE. NOUS DISCUTONS LE PROBLEME DE L'EXISTENCE D'UNE ONDELETTE OPTIMALE, AU SENS DE LA MAXIMISATION DU CRITERE DE CONTRASTE. NOUS ETUDIONS LES PERFORMANCES DE DEUX DETECTEURS TEMPS-ECHELLE SOUS-OPTIMAUX, AINSI QUE CELLES D'ESTIMATEURS BASES SUR LA TRANSFORMEE EN ONDELETTES. CES PERFORMANCES SONT COMPAREES A CELLES DES ALGORITHMES CLASSIQUES
Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards by Chengfang Ren( )

1 edition published in 2015 in French and held by 1 WorldCat member library worldwide

In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems
Estimation parcimonieuse et apprentissage de dictionnaires pour la détection d'anomalies multivariées dans des données mixtes de télémesure satellites by Barbara Pilastre( )

1 edition published in 2020 in French and held by 1 WorldCat member library worldwide

Spacecraft health monitoring and failure prevention are major issues in many fields and space industry has not escaped to this trend. Indeed, the proper conduct of satellite missions involves ensuring satellites good health and detect failures as soon as possible. This important task is performed by analyzing housekeeping telemetry data using anomaly detection methods. Housekeeping telemetry consist of sensors data recorded on board and received as time series describing the time evolution of various parameters. Each parameter is associated with physical quantity such as a temperature, a voltage or a pressure, or an equipement status. As conventional monitoring methods reach their limits, statistical machine learning methods have been studied to improve satellite telemetry monitoring via a semi-supervised learning: telemetry associated with normal operations of the spacecraft is learned to build a reference model. Then, more recent data is compared to this model in order to detect any potential anomalies. Most of the methods recently proposed focus on univariate anomaly detection for continuous parameters and handle telemetry parameters independently remove. The purpose of this thesis is to propose algorithms for multivariate anomaly detection which can handle mixed telemetry parameters jointly and take into account the correlations and relationships that may exist between them in order to detect univariate and multivariate anomalies. In this work we assume that telemetry signals can be approximated using few telemetry signals associated with normal satellite operations. This first hypothesis of sparsity justifies the use of sparse representation methods that will be studied throughout this thesis. This choice is also motivated by a second form of sparsity which is specific to satellite anomalies and reflect the fact that anomalies are rare and affect few parameters at the same time. In a first time, a multivariate anomaly detection algorithm based on a sparse estimation model is proposed. A weighted extension of the method which integrates external information is presented as well as a hyperparameter estimation method that has been developed to facilitate the operationnal use of the algorithm. In a second step, a sparse estimation model with a convolutional dictionary is proposed. The objective of this second method is to exploit the shiftinvariance property of convolutional dictionnaries and improve the detection. The proposed methods are finally evaluated on industrial use cases associated with real telemetry data and are compared to state-of-the-art approches
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.94 (from 0.90 for Détection ... to 0.99 for Cartes aut ...)

Languages
French (23)

English (7)