WorldCat Identities

Fluhr, Christian

Overview
Works: 81 works in 125 publications in 3 languages and 294 library holdings
Roles: Thesis advisor, Opponent, Other, Editor, Author, Contributor
Publication Timeline
.
Most widely held works about Christian Fluhr
 
Most widely held works by Christian Fluhr
Apprentissage, analyse automatique du langage, application à la documentation by Alexandre Andreewsky( Book )

14 editions published in 1973 in French and English and held by 110 WorldCat member libraries worldwide

Filtrage et résumé informatique de l'information sur les réseaux : 3ème congrès du chapitre français de l'ISKO, 5-6 juillet 2001 by Société internationale pour l'organisation des connaissances( Book )

2 editions published in 2001 in French and held by 7 WorldCat member libraries worldwide

Apprentissage, analyse automatique du language, application à la documentation by Alexandre Andreewaky( Book )

2 editions published in 1973 in French and English and held by 6 WorldCat member libraries worldwide

Segmentation syllabique et reconnaissance des tons du chinois en parole continue by Pierre Hallé( Book )

1 edition published in 1985 in French and held by 4 WorldCat member libraries worldwide

This is a preliminary study on phonetic decoding of a tone language: the Peking dialect. The choice of this language implies the use of strategies based on the syllable as the recognition unit. A new method of vowel nuclei detection is first proposed. This method combines the use of spectral variability and loudness. The second part is devoted to the recognition of tones, regardless of the segmentals on which they are carried. A normalization technique based on a general intonation curve estimate is first proposed. Then a probabilistic recognition technique is presented. We have called it "contrastive" because, in addition to using information on the intrinsic characteristics of tonal units, it also employs knowledge of the contrasts between these units
Contribution à la reconnaissance automatique des images : application à l'analyse de scènes de vrac planaire en robotique by Shengbiao Tan( Book )

2 editions published in 1987 in French and held by 4 WorldCat member libraries worldwide

A method for object modeling and overlapped object automatic recognition is presented. Our work is composed of three essential parts: image processing, object modeling, and evaluation, implementation of the stated concepts. In the first part, we present a method of edge encoding which is based on a re-sampling of the data encoded according to Freeman, this method generates an isotropie, homogenous and very precise representation. The second part relates to object modeling. This important step makes much easier the recognition work. The new method proposed characterizes a model with two groups of information : the description group containing the primitives, the discrimination group containing data packs, called "transition vectors". Based on this original method of information organization, a "relative learning" is able to select, to ignore and to update the information concerning the objects already learned, according to the new information to be included into the data base. The recognition is a two - pass process: the first pass determines very efficiently the presence of objects by making use of each object's particularities, and this hypothesis is either confirmed or rejected by the following fine verification pass. The last part describes in detail the experimentation results. We demonstrate the robustness of the algorithms with images in both poor lighting and overlapping objects conditions. The system, named SOFIA, has been installed into an industrial vision system series and works in real time
Utilisation de techniques relevant de l'intelligence artificielle pour le traitement de données biographiques complexes by Gian Piero Zarri( Book )

1 edition published in 1985 in French and held by 4 WorldCat member libraries worldwide

The aim of this thesis is to provide a general description of RESEDA, an « intelligent » Information Retrieval system dealing with biographical data and using techniques borrowed from Knowledge Engineering and Artificial Intelligence (AI). All the system's “knowledge” is represented in purely declarative form. This is the case both for the “fact database” and the “rule base”; the fact database contains the data, in the usual sens of the word that the system has to retrieve. Together, the fact and rule bases make up RESEDA's “knowledge base”. Information in the knowledge base is depicted using a single knowledge representation language (“metalanguage”), which makes use of quantified variables when describing date in the rule base; the metalanguage is a particularly powerful realization of an AI type “case grammar”. For reasons of computational efficiency, the low-level (“level zero”) inferencing (retrieving) is carried out in RESEDA by using only the resources of the system's match machine. This machine owes a large part of its power to the judicious use of temporal data in efficiently indexing the fact database. Only high-level inferences require the creation of real “inference engines”. RESEDA's inference engine hat the general characteristics a) of being “event driven” in its initialization; b) of solving problems by constructing a “choice tree”. Traversal of the choice tree is performed depth-first with systematic backtracking. The high-level inference operations, relying on information in the rule base and making use of the inference engine, that are implemented in the system, are known as “transformations” and “hypotheses”. The “hypotheses” enable new causal relationships to be established between events in the fact database which are a priori totally disjointed; the system is thus equipped with an, albeit elementary, learning capability
Accès par le contenu à des documents numérisés contenant du texte et de l'image by Corinne Thomas( )

2 editions published in 2001 in French and held by 3 WorldCat member libraries worldwide

Reconnaissance de grands vocabulaires : une étude syntaxique et lexicale by Gilles Adda( )

2 editions published in 1987 in French and held by 3 WorldCat member libraries worldwide

Nous présentons dans cette thèse un certain nombre d'expériences menées dans le cadre d'un projet à long terme de dictée vocale. Ces expériences portent sur l'utilisation de grands vocabulaires (contenant entre 10000 et 300000 mots), et de langage aussi bien syntaxiquement que sémantiquement naturel. On a tout d'abord étudié, en utilisant comme support une maquette de transcription sténotypes/graphèmes destinée au sous-titrage d'émissions télévisées, le modèle syntaxique à développer afin de rendre compte des particularités du langage parlé. Ce modèle repose sur des grammaires stochastiques de successions binaires et ternaires. Nous avons ensuite construit un logiciel d'accès à un lexique de très grande taille (270000 mots), à l'aide d'un treillis phonétique erroné. Les résultats ayant montré les limites d'une telle approche, nous avons étudié la possibilité d'une préclasssification du vocabulaire. Nous avons mené une étude lexicale de l'utilisation de traits robustes, en utilisant différents types de préclassification
Étude et réalisation d'un moniteur temps-réel pour la gestion d'un réseau de télétransmission by Alain-Emile Chatap( Book )

2 editions published in 1988 in French and held by 3 WorldCat member libraries worldwide

L'informatique met en oeuvre des ressources importantes coûteuses, tant en ce qui concerne le matériel que les programmes.Un souci d'économie conduit à rendre ces ressources communes à un groupe de traitements.Les problèmes qu'impliquent la mise en commun de composants aussi bien logiciels que matériels, leur partage leur protection, la synchronisation des actions qui peuvent être entreprises sur eux, incombent aux programmes système.Dans un environnement industriel (contrôle de processus...), il s'agit souvent en plus pour le système de réagir en temps-réel à l'occurence d'évènements externes générés par des dispositifs matériels qui sont sous son contrôle.La diversité de ces dispositifs donne lieu à des actions variées, effectuées par des processus spécialisés qui s'exécutent en parallèle.Pour permettre à l'application de se consacrer uniquement aux problèmes afférents aux traitements des données, on met en place des mécanismes permettant d'assurer le parallélisme des travaux, leur synchronisation et le partage des ressources.Ce document expose la conception et la mise en oeuvre d'un exécutif temps-réel
Étude et réalisation d'un générateur de signaux stables et précis intégrable sur IBM-PC by Laâlia Zeroual( )

2 editions published in 1987 in French and held by 3 WorldCat member libraries worldwide

Développement d'un générateur de signaux stables et précis conçu sous la forme d'une carte coupleur compatible ibm/pc, gérée par un logiciel écrit et implanté sur un microcalculateur. Ce produit est destiné à la calibration des appareils numériques de mesure
Représentation de la déduction par une logique trivalente : réalisation de moteurs d'inférence rapides by François Terrier( Book )

2 editions published in 1987 in French and held by 3 WorldCat member libraries worldwide

La construction d'automates de surveillance, conduite et diagnostic peut être abordée par le biais de l'intelligence artificielle. Leurs règles de fonctionnement suivent le formalisme de la logique propositionnelle d'ordre O. II est alors possible de représenter de façon concise et efficace les modes de déduction dans une logique trivalente. On obtient alors des codes exécutables de faible encombrement et à vitesse d'exécution élevée (environ 5000 règles par seconde). Parallèlement cela amène à développer un langage d'entrée des règles de syntaxe déclarative, très simple, et à temps d'apprentissage, pour un expert, quasiment nul. Enfin, pour pouvoir généraliser le principe à des règles contenant des conclusions dubitatives (Si ... alors arrêt moteur ou perte de pression), des procédures de réécriture du jeu de règles ont été mises au point. Ces procédures permettent de se ramener à un système équivalent sans conclusion dubitative et qui fournit les mêmes ensembles d'informations décidables.Deux applications ont été réalisées à l'aide de ce travail : - un outil logiciel pour l'analyse de fiabilité (OLAF), - un système d'aide au diagnostic de panne sur réacteur à eau sous pression
Analyse morphosyntaxique automatique du dari, persan d'Afghanistan, et mise au point d'un système d'interrogation de bases de données textuelles en langage naturel by Said A Afzali( )

1 edition published in 1986 in French and held by 3 WorldCat member libraries worldwide

Ce travail entre dans le cadre d'une étude de linguistique automatique appliquée au dari (persan d'Afghanistan) et comprend les points suivants : I. un certain nombre de précisions sur la situation géographique, historique et linguistique de l'Afghanistan. II. toute étude linguistique et périinformatique permettant de réaliser une interrogation en dari d'une base de données textuelle. Cela comprend : -une transcription du dari compatible avec les contraintes des claviers d'ordinateurs. -une énumération exhaustive de tous les mots fonctionnels du dari (prépositions, conjonctions, articles, pronoms, locutions prépositives et conjonctives). -une étude de la suffixation des substantifs, adjectifs, verbes et adverbes. -une description des règles permettant de "normaliser" les mots sémantiques (substantifs, adjectifs, verbes) du dari. -la constitution d'une base de textes de 60000 mots. III. une étude détaillée du problème du filtrage syntaxique et des hyper formes composées. vingt-cinq filtres sont construits et ont été testes sur une partie importante et suffisamment représentative du corpus. De ce fait, lorsque les formes courtes binaires et ternaires fournissent des mots composés, on a la certitude qu'ils ne font pas partie de formes plus longues susceptibles de modifier leur statut. Elles peuvent donc être directement intégrées au système spirit. Enfin, les formes longues peuvent obtenues par itération des formes courtes. Une pré-étude de cette particularité est effectuée
Quantification vectorielle et adaptation au locuteur by Hélène Bonneau( Book )

2 editions published in 1987 in French and held by 3 WorldCat member libraries worldwide

La plupart des systèmes de reconnaissance de grands vocabulaires utilisent la Quantification Vectorielle pour réduire la quantité d'informations à traiter. Dans le but de résoudre le principal problème actuellement rencontré par ces systèmes (qui est celui du passage au cas multi-locuteur), ce travail concerne l'étude d'une nouvelle méthode d'adaptation au locuteur, par Quantification Vectorielle (Q.V.). Dans le premier chapitre nous exposons les principes de base de la Q.V. Nous présentons en particulier les différents algorithmes de classification automatique que nous avons utilisés lors de nos différentes expériences pour la construction des répertoires. L'étude des réalisations en reconnaissance de la parole montre que la Q.V. est maintenant utilisée par de nombreux systèmes de reconnaissance de grands vocabulaires, pour réduire la quantité de données à traiter. Il existe également des réalisations qui utilisent la Q.V., non plus simplement comme un outil mais comme méthode de reconnaissance (utilisation de la Q.V. comme préprocesseur ou Q.V. multi-section). Le second chapitre est consacré à la comparaison des différentes méthodes d'adaptation au locuteur... Les chapitres suivants concernent les différentes expériences que nous avons effectuées au cours de ce travail. Le chapitre 4 résume l'expérience menée dans le but de tester l'efficacité de la Q.V. dans le cadre d'un système de reconnaissance globale mono-locuteur. L'expérience en identification du locuteur par Q.V., décrite dans le chapitre 5, nous a permis de vérifier qu'un répertoire peut être utilisé pour représenter l'espace spectral d'un locuteur. Nous avons également comparé l'efficacité de deux méthodes de classification automatique : la méthode incrémentale et une méthode de nuées dynamique (l'algorithme de SPLIT)... La première partie du chapitre 6 décrit le principe de l'adaptation au locuteur par Q.V... La seconde partie du chapitre 6 décrit les expériences réalisées. Le choix du vocabulaire d'adaptation, qui contient 136 mots, a fait l'objet d'une étude particulière... Cette étude montre également que la Q.V. représente plus qu'un simple outil pour réduire la quantité de données. Les répertoires qu'elle utilise permettent de caractériser les locuteurs, pour les systèmes de vérification du locuteur. Enfin, son efficacité pour l'adaptation au locuteur, offre aux systèmes de reconnaissance de grands vocabulaires, une solution intéressante au problème de la reconnaissance multi-locuteur
SYSTEMES DE DICTIONNAIRE OPTIMISATION, MICROSYNTAXE, DERIVATION by Christian Fluhr( Book )

1 edition published in 1973 in French and held by 3 WorldCat member libraries worldwide

DEVANT L'IMPORTANCE QUE PEUT PRENDRE LES APPLICATIONS DU TRAITEMENT DE LA LANGUE NATURELLE, UNE ANALYSE AUTOMATIQUE DE LA LANGUE EST NECESSAIRE. CETTE THESE SE RAPPORTE SPECIALEMENT A L'ANALYSE SYNTAXIQUE ET A L'ANALYSE SEMANTIQUE
Reconnaissance multilocuteur de mots isolés fondée sur une approche phonétique by Abdelkhalek Messaoudi( Book )

2 editions published in 1987 in French and held by 3 WorldCat member libraries worldwide

This thesis describes a speaker-independent isolated word recognition system which does not require any vocal training phase.The system is based on a phonetic approach which allows each phoneme to be represented by a spectral codebook. A clustering algorithm was used to build phonetic codebooks from a manually segmented and labelled multispeaker database.The training phase only consists in introducing the vocabulary words in phonetic form via a keyboard. Each word is represented by a production model in which each state corresponds to a phoneme pronunciation. A phoneme average duration is associated to the state.During the recognition phase, a global distance between the unknown word and each model is evaluated using dynamic time warping. This algorithm permits to find the best state sequence that minimizes the cumulated distances between spectral vectors of the unknown word and the reference model states
Architectures informatiques des systèmes de commande en téléopération : étude et spécification by Madjid Agoune( Book )

2 editions published in 1988 in French and held by 3 WorldCat member libraries worldwide

Cette étude se situe dans le cadre de la Téléopération Assistée par Ordinateur. Elle détaille les architectures informatiques des systèmes de commande multi-machines et multifonctions, adaptatifs aux perturbations et aux incertitudes du milieu de travail, efficaces dans la réalisation des tâches qui ne peuvent être décrites à l'avance.Cette étude a permis de juger des problèmes liés aux Interactions d'une part entre les organes de commande, d'autre part entre l'Homme et la Machine. Dans ce dernier cas, différents modes de fonctionnement ont été définis. La méthode du GRAFCET permet d'assurer la représentation des parallélismes, du partage des ressources disponibles, des attentes d'événements et la synchronisation des modes de fonctionnement
Méthodes d'amélioration de la pertinence des réponses dans un système de bases de données textuelles by Hary Pierre Radasoa( Book )

1 edition published in 1988 in French and held by 3 WorldCat member libraries worldwide

Lors d'une recherche documentaire, la question que l'utilisateur pose, est exprimée à l'aide de mots qui peuvent être différents de ceux contenus dans les documents mais relatant les mêmes notions. Cela est un problème général de la paraphrase. La reformulation est une solution à ce problème. Le rôle de la reformulation est de trouver un chemin pour apparier les notions (mots, groupes de mots, expressions, phrases, ...) contenues dans les documents et dans la question. La reformulation consiste à localiser ces notions et à amplifier la reconnaissance de leur proximité sémantique, donc celle de la proximité sémantique entre les documents et la question. Le but est de diminuer le "silence" qui correspond à la non- proposition de documents pertinents. Cependant, la reformulation ne doit pas engendrer du "bruit" qui correspond à la proposition de documents non pertinents. La diminution du silence et du bruit permet d'augmenter la précision des réponses. Les différentes méthodes de reformulation pour améliorer la pertinence des réponses lors de la recherche documentaire, exposées dans ce travail, sont : - la normalisation ; - les mots de la même famille ; - le thésaurus ; - le correcteur de fautes d'orthographe ; - l'explicitation ; - l'apprentissage de règles de reformulation ; -et l'interrogation par partie de document. Parmi ces méthodes, la normalisation et l'explicitation sont présentées en s'appuyant sur des travaux antérieurs ; les mots de la même famille, le correcteur de fautes d'orthographe et l'interrogation par partie de document sont améliorés ; le thésaurus et l'apprentissage de règles de reformulation sont étudiés. Chaque méthode de reformulation exploite des règles de reformulation. Ces règles de reformulation sont caractérisées par un type de relation évaluant la proximité sémantique entre les mots mis en relation. Ces règles sont facilement modifiables. Le système de recherche documentaire SPIRIT qui comporte un traitement linguistique et un traitement statistique, a été utilisé pour la validation de nos expérimentations sur la reformulation. Des modifications ont été apportées au niveau du module de comparaison afin de pouvoir prendre en compte la reformulation. Un système expert est proposé pour piloter la reformulation. Les bases de connaissances sont constituées par des groupes de règles correspondant aux différentes méthodes de reformulation. Le mécanisme d'inférence est régi par des métarègles contrôlant chaque processus de reformulation ainsi que l'enchaînement de tous les processus de reformulation
Implémentation d'un modèle timing dans un simulateur logique junior "VLSI" et restructuration de la chaine "CAO" correspondante by Hassina Guendouz( Book )

2 editions published in 1988 in French and held by 3 WorldCat member libraries worldwide

La simulation logique pour "VLSI" est une étape importante lors de la conception d'un "DESIGN" dont les structures logiques se compliquent. Le " DESIGNER" a besoin d'un outil lui permettant de vérifier le comportement logique et dynamique de son schéma. L'essor considérable des outils de "CAO" industriels (Génération Mentor, Sun, Valid ou Daisy), met à la disposition des concepteurs d'aujourd'hui plusieurs méthodes d'implantation du masque du circuit intégré, ainsi que des outils de simulation logique et électrique.Depuis quelques années, la micro-électronique est rentrée dans le cursus de la majeure partie des universités et écoles concernées. N'ayant pas les moyens de s'équiper en outils de "CAO" industriels alors très onéreux, ces centres ne pouvaient se consacrer à l'apprentissage de techniques de conception. De ce fait, des recherches sont orientées aujourd'hui vers une nouvelle génération de micro-ordinateurs (type Personal Computer), permettant d'effectuer la majorité des opérations d'ingénierie : Schémas et simulation. Ces postes de travail doivent être simples d'utilisation, interactive et rapide en simulation. De plus, l'association de ces postes de travail en réseau à des stations de plus grande puissance, décharge ces dernières de certaines tâches.Le simulateur "Junior" CAO/VLSI a vu le jour dans le cadre de ces recherches. Ce dernier tente de relever le défi en simulant des circuits de moyenne complexité, avec une vitesse remarquable sur des stations de moyenne puissance.Les points traités dans ce rapport sont les suivants :- Saisie graphique d'un circuit de 1700 portes sur une station expérimentale et étude de la structure de la chaîne de "CAO" utilisée pour futur développements. Étude du modèle utilisé par notre simulateur pour optimiser et accélérer la simulation. Passage d'un modèle timing "Unitaire" à un modèle "Nominal"
Étude de faisabilité d'un système portable d'enregistrement numérique et de traitement de 24 heures d'électrocardiogramme (Holter numérique) by Mohammed Chaouche( )

2 editions published in 1987 in French and held by 3 WorldCat member libraries worldwide

Les systèmes de 'Holter' sont des enregistreurs magnétiques portables qui peuvent mémoriser 24 heures de signal électrocardiogramme. Leur remplacement par des appareils à enregistrement numérique présente plusieurs avantages (traitement automatique, plus de problèmes mécaniques,...) Ce rapport de thèse présente un travail visant l'étude d'un appareil portable d'enregistrement numérique de 24 heures de signal E.C.G. Cependant, le principal problème posé par la réalisation d'un tel appareil est la capacité mémoire qui lui est nécessaire. En effet, l'enregistrement de 24 heures d'E.C.G. échantilloné sur 8 bits à 200 Hz nécessite 17 MOctets de mémoire RAM. Ce rapport va présenter différentes méthodes de compression de données et leur application au signal ECG. On insistera particulièrement sur la méthode de compression par la transformation orthogonale de Karhunen Loeve. La normalisation temporelle des complexes et leur segmentation par le début du ORS nous ont permis d'avoir le taux de compression le plus élevé pour une bonne reconstitution du signal. Différentes méthodes de détection et de segmentation de complexes ECG ont été testées. Une exploitation statistique des résultats a également été faite. Enfin, une évaluation de l'implantation de la méthode retenue sur un processeur de signal du type TMS320 a été faite
Étude et réalisation de la gestion des articles appartenant à des bases de données gérées par une machine bases de données by Abderrazzak Laabi( Book )

2 editions published in 1987 in French and held by 3 WorldCat member libraries worldwide

Le travail présenté dans cette thèse se situe dans le cadre d'un projet d'étude et de réalisation de trois couches du S.G.B.D. de la machine bases de données DORSAL-32. La première couche assure la gestion des articles dans le espaces de stockage, l'organisation des verrouillages des articles et des pages selon le mode d'accès effectue et le degré de cohérence de la transaction. Elle assure également la gestion des micro-journalisations qui permettent de garantir la propriété d'atomicité d'une action. La seconde assure la gestion du journal des transactions et la procédure de reprise à chaud, qui permettent de garantir les propriétés d'atomicité et de durabilité d'une transaction. Quant à la troisième couche, elle assure le contrôle concurrents, et la gestion des tables de verrous. Des accès des mesures de performances des méthodes utilisées sont présentés dans ce rapport. Le dernier chapitre contient un travail de recherche concernant la mise en pratique de la méthode de hachage virtuel linéaire dans notre S.G.B.D. Le problème étudie est celui des déplacements des articles d'une page à l'autre. Dans de telles conditions, les pointeurs d'articles classiquement utilises ne permettent pas d'effectuer des accès directs. Nous proposons un nouveau pointeur qui permet de réaliser un accès direct à l'article, et ceci quelle que soit la page où il se trouve à un instant donné
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.84 (from 0.63 for Segmentati ... to 0.95 for Filtrage e ...)

WorldCat IdentitiesRelated Identities
Languages
French (45)

English (2)

German (1)