WorldCat Identities

Ecole doctorale Sciences pour l'Ingénieur (Troyes, Aube)

Overview
Works: 485 works in 664 publications in 1 language and 675 library holdings
Roles: Other, 996
Publication Timeline
.
Most widely held works by Aube) Ecole doctorale Sciences pour l'Ingénieur (Troyes
Modélisation numérique du grenaillage de précontrainte : approche tridimensionnelle et dynamique by David Deslaef( )

2 editions published in 2000 in French and held by 3 WorldCat member libraries worldwide

Le grenaillage de précontrainte est un traitement mécanique de surface très utilisé dans l'industrie pour augmenter les performances mécaniques des pièces métalliques. Actuellement, le bénéfice de ce traitement est évalué grâce à des méthodes empiriques parfois très coûteuses. L'objectif de ce travail est de mettre au point une méthode de calculs définissant l'état mécanique complet de la pièce après traitement. Une telle démarche à pour but de diminuer les différentes expériences de validation et d'optimiser les paramètres du grenaillage en fonction de la durée de vie souhaitée pour la pièce. La méthode des éléments finis est utilisée pour analyser les phénomènes mécaniques mis en jeu lors du grenaillage. La complexité du procédé impose toutefois de nombreuses contraintes à la simulation. La plupart des auteurs ayant proposé des modèles numériques de grenaillage n'ont abouti qu'à une simulation dépendante de plusieurs hypothèses simplificatrices, ce qui n'a permis qu'une exploitation partielle des résultats. Le béénfice des techniques de simulation existantes étant limité, la mise au point de nouveaux modèles éléments finis ont donc été nécessaires. L'analyse dynamique à mis en évidence une oscillaiton de différents champs (contraintes, déplacements) engendrée par la partie élastique du comportement du matériau. Une analyse statique basée sur un principe d'équivalence énergétique a donc été proposée pour palier à ce problème. Une fois les modèles géométriques et numériques mis au point, l'influence des paramètres les plus importants sur les contraintes résiduelles (rayon, vitesse et dureté de la bille, angle d'incidence des impacts, coefficient de frottement et nombre d'impacts) a été évaluée. Les modèles ont été validés avec des mesures de contraintes résiduelles par diffraction des neutrons. La concordance des résultats numériques et expérimentaux fait des modèles éléments finis proposés, un outil efficace pour l'optimisation du grenaillage
Contribution à la capitalisation des connaissances en génie mécanique : application au grenaillage de précontrainte by Bai Qing Wang( Book )

2 editions published in 2007 in French and held by 3 WorldCat member libraries worldwide

The work presented in this thesis is at the same time a contribution to the field of the mechanical engineering especially to the shot peening process and to the field of the knowledge management. This work consists in analyzing methods developed in knowledge engineering (MKSM, CommonKADS, KOD, REX, MEREX...) and some modeling “languages” (UML, IDEFO, GRACET...). An implementation of the above-mentioned methods of modeling languages for the capitalization of knowledge in the field of shot peening process is proposed. This application shows that it is possible to capitalize knowledge of the mechanical engineering with generic methods based on some improvements of the models used for the various points of view of knowledge. The knowledge book presented through the appendices illustrates the knowledge capitalized in the various selected points of view
Problèmes d'optimisation en tournées sur arcs by Wahiba Ramdane-Cherif( Book )

2 editions published in 2002 in French and held by 3 WorldCat member libraries worldwide

This thesis deals with vehicle routing problems in which a subset of arcs must be treated in a network. Such problems are relatively neglected compared to node routing problems, despite important applications like waste collection, snow plowing or inspection of power lines. The CARP (Capacitated Arc Routing Problem) is the main academic problem of that kind, but it is not sophisticated enough to handle real-life applications. The thesis investigates three new problems generalizing the CARP: the ECARP (Extended CARP), that copes with very realistic networks with one-way and two-way streets, prohibited turns, multiple dumping sites, etc. ; the SCARP (Stochastic CARP), whose the aim is to compute robust solutions, keeping their quality in case of imprecise data ; the PCARP (Periodic CARP), a long-term planning problem in which treatment days must be assigned to each street, subject to given frequencies, before computing the trips for each day, in order to minimize a total cost over the horizon considered. These problems are modelled and then solved thanks to new algorithms that are appraised on classical and new benchmark instances. A hybrid genetic algorithm is proposed for the first time for the CARP. It outperforms all published methods and allows one to solve to optimality several open instances from literature. This algorithm is extended in a non-trivial way to handle the ECARP, the SCARP and the PCARP. Our research also describes fast heuristics for large scale instances and a cutting plane algorithm for the ECARP. This work illustrates the power and flexibility of genetic algorithms and reduces in a significant way the gap existing between academic vehicle routing problems and industrial applications
Vers une méthodologie de conception de systèmes de médiation adaptés au travail coopératif by Victoria Eugenia Ospina Becerra( Book )

2 editions published in 2007 in French and held by 3 WorldCat member libraries worldwide

Cette thèse propose un cadre méthodologique pour la conception de système de médiation adapté au travail coopératif, supporté par des environnements informatiques pour l'apprentissage humain, par des ateliers de conception coopératifs ou par tout autre système dans lequel la coopération joue un rôle important. Deux objectifs ont guidé la définition de notre méthodologie : la caractérisation des systèmes coopératifs, permettant l'identification du système de médiation adapté, et la définition du système de médiation lui même. Le travail présenté se trouve au confluent de deux axes de recherche importants : d'une part, les travaux portant sur l'assistance à l'utilisation de systèmes coopératifs, et d'autre part, les travaux relatifs à la définition d'éléments méthodologiques de conception de systèmes de médiation. L'utilisation de systèmes coopératifs, souvent complexes, doit comporter un niveau suffisant d'assistance pour faciliter et coordonner l'activité des acteurs coopérants (réalisation de tâches et résolution collective de problèmes). Pour cela, nous proposons d'introduire un acteur artificiel dans l'activité coopérative : le Médiateur. La conception et le développement du Médiateur, considéré alors comme un système de médiation, sont orientés agents. Dans l'intention de valider notre approche, nous avons réalisé des expérimentations de conception de Médiateur pour deux systèmes coopératifs : le premier, l'environnement iPédagogique, permet d'assister la gestion et le suivi de projets d'étudiants ; le second, l'atelier de µ-outils MO-AFT, permet de réaliser des analyses fonctionnelles techniques coopératives, orientées conception de produits mécaniques. Ces expérimentations distinctes, nous ont permis de proposer puis d'affiner une méthodologie de conception d'un système de médiation adapté aux systèmes coopératifs. La première est davantage centrée sur le niveau des connaissances du Médiateur, et la deuxième porte essentiellement sur la spécification des interactions entre les acteurs et le médiateur d'une part, et entre les agents du Médiateur, d'autre part
Simulation numérique de l'endommagement dans les procédés de mise en forme by Youssef Hammi( Book )

2 editions published in 2000 in French and held by 3 WorldCat member libraries worldwide

Ce travail consiste à proposer une méthodologie numérique de réalisation virtuelle des procédés de fabrication et de mise en forme par grandes déformations plastiques avec endommagement. L'objectif étant de pouvoir optimiser virtuellement un procédé, en agissant sur les paramètres technologiques, de façon à soit retarder au maximum l'apparition d'un endommagement significatif, si l'on veut obtenir une pièce saine (forgage, emboutissage) ; soit favoriser l'amorçage et la croissance de l'endommagement, pour réaliser des opérations de découpage de toles par exemple. On propose une formulation générale anisotrope avec des couplages forts d'état et des dissipations. L'analyse des dissipations est faite dans le cadre des matériaux standards généralisés (MSG) avec une théorie non associée en utilisant deux formulations différentes. Une première formulation à surface unique qui est basée sur l'hypothèse qu'il ne peut y avoir d'endommagement sans écoulement plastique. Une seconde formulation à deux surfaces (couplées), une surface de plasticité écrouissable avec influence du dommage et une surface de non endommagement, qui relaxe l'hypothèse précédente. La généralisation aux transformations finies est réalisée dans le cadre d'une formulation dans un référentiel tournant à partir de la configuration intermédiaire, moyennant l'adoption de l'HPP pour la transformation élastique. Cette approche à l'avantage de découpler les non linéarités cinématique et matérielle. Sur le plan numérique, un soin particulier a été apporté pour l'intégration locale des équations couplées des différents modèles proposés (à deux surfaces ou une surface unique). Les algorithmes d'intégration ont été optimisés afin de réduire le nombre d'équations de 28 à 14 dans le cas anisotrope, et de 15 à 2 dans le cas totalement isotrope ; de calculer semi-analytiquement l'expression de la matrice tangente consistante et d'utiliser un schéma d'intégration locale asymptotique. Cette méthodologie a été validée en traitant plusieurs exemples 2D et 3D couvrant une large gamme de fabrication et de mise en forme : découpage de toles, emboutissage, forgeage, hydroformage de tubes complexes, etc
Résolution du problème de placement en deux dimensions : heuristiques, bornes inférieures et méthodes exactes by Abdelghani Bekrar( Book )

2 editions published in 2007 in French and held by 3 WorldCat member libraries worldwide

Dans cette thèse nous avons étudié le problème de placement en deux dimensions avec prise en compte de la contrainte guillotine. Pour ce problème nous avons proposé plusieurs méthodes pour calculer des solutions approchées, des bornes inférieures et des solutions exactes. Nous avons développé deux heuristiques dont l'une place les pièces dans des couches et l'autre place les pièces dans des positions en bas à gauche sans se limiter aux couches. Les deux heuristiques conduisent à des configurations guillotines. Nous avons testé plusieurs méthodes pour calculer les bornes inférieures, à savoir : la programmation linéaire, la décomposition du problème, la relaxation lagrangienne et la méthode de coupes. Pour obtenir des solutions exactes, nous avons proposé trois algorithmes exactes : la méthode de branch and bound, la méthode de branch and price et une procédure de recherche dichotomique. Les performances des méthodes proposées ont été évaluées sur des instances de la littérature ou générées aléatoirement
Optimisation des stocks des composants et planification de leurs réapprovisionnements pour les systèmes d'assemblage soumis à des aléas by Mohamed Aly Ould Mohamed Yahya Louly( Book )

2 editions published in 2001 in French and held by 3 WorldCat member libraries worldwide

Les stocks de sécurité sont très souvent utilisés pour pallier les problèmes de réapprovisionnement en présence d'aléas. Cependant, les stocks sont coûteux, la recherche des méthodes de planification efficaces qui permettent de les contrôler tout en maximisant le service offert aux clients est donc un sujet important. Dans cette thèse, nous étudions la planification de réapprovisionnements en composants pour les systèmes d'assemblage avec les délais d'approvisionnement aléatoires. L'objectif pratique de notre étude était de fournir des réflexions et des méthodes sur le problème de paramétrage des logiciels MRP. Nous avons donc choisi comme variables de décision celles qui correspondaient aux paramètres de la méthode MRP (le temps de cycle planifié et le nombre de périodes de regroupement) et nous avons effectué une analyse des deux politiques de lotissement "lot pour lot" et "à couverture fixe". Nous avons démontré des propriétés théoriques intéressantes et proposé de nouveaux modèles ainsi que des méthodes efficaces pour l'optimisation de ces paramètres
Identification du comportement des matériaux métalliques au delà de leur limite d'élasticité par la méthode des champs virtuels by The Vinh Tran( Book )

2 editions published in 2008 in French and held by 3 WorldCat member libraries worldwide

This work brought a new identification procedure to the virtual fields method (VFM) in elastoplasticity. The advances concerned in particular the formulation of the choice of the virtual fields and their optimization thanks to the algorithm of Newton-Raphson for a nonlinear behaviour law. Firstly, the developments were validated successfully by using finite element simulated data. Then, a 316L steel was selected for the experimental validation. The traction-compression tests on plane double-notched specimens were carried out. The kinematic fields were measured using the grid method. Initially, a monotonic loading was considered with use of the exponential work hardening Voce model. The results obtained with the VFM coincided with the reference values given by the standard tests. Then, a traction-compression loading was also considered. A simple five parameters nonlinear kinematic hardening model was identified. Although the beginning of plasticity in traction remains problematic, the results obtained show globally a good agreement with the reference. It is clear that there are errors due to the noisy data or other sources. These errors result in abnormal early plasticity detection in the tests. This disturbs the identification in the early stages of plasticity. It is necessary in the future to improve the calculation of the stresses
Interrogation multi-critères d'une base de données spatio-temporelles by Sabiha Ould Yahia( Book )

2 editions published in 2005 in French and held by 3 WorldCat member libraries worldwide

The study of the human behavior in driving situations is of primary importance for the improvement of drivers security. This study is complex because of the numerous situations in which the driver may be involved. The objective of the CASSICE project (Symbolic Characterization of Driving Situations) is to elaborate a tool in order to simplify the analysis task of the driver's behavior. In this paper, we will mainly take an interest in the indexation and querying of a multimedia database including the numerical data and the video sequences relating to a type of driving situations. We will put the emphasis on the queries to this database. They are often complex because they are formulated according to criteria depending on time, space and they use terms of the natural language
Ordonnancement de la production en présence de machines alternatives by Farouk Yalaoui( Book )

2 editions published in 2000 in French and held by 3 WorldCat member libraries worldwide

Nous consacrons cette thèse à l'ordonnancement de la production en présence de machines alternatives et en particulier, l'ordonnancement de machines parallèles. Cela revient à étudier un groupe de machines, souvent le groupe le plus important dans le processus de production. Les études réalisées dans cette thèse peuvent être considérées comme une étude préliminaire pour les systèmes complexes de type "flowshops" hybrides. Les travaux de cette thèse portent sur trois critères économiques parmi les plus importants en ordonnancement de la production : la minimisation du makespan qui revient à maximiser la productivité, la minimisation du temps total de séjour qui est équivalent à minimiser le temps d'attente et les encours, et enfin la minimisation de la somme des retards qui est un critère particulièrement important pour le respect des délais. Nous avons aussi pris en compte certaines caractéristiques particulières mais fréquentes dans les entreprises telles que les temps de changement d'outils ou des dates d'arrivées différentes des tâches. La plupart des problèmes d'ordonnancement dont ceux considérés dans cette thèse, sont NP-difficiles. Cela signifie qu'il est très peu probable qu'on puisse obtenir une solution optimale en temps polynomial. Le but recherché est donc de développer des méthodes approchées qui fournissent des solutions aussi proches que possible de l'optimum et des méthodes exactes capables de résoudre des problèmes de taille aussi grande que possible. Afin d'atteindre cet objectif, nous exploitons autant que possible des propriétés théoriques
DyPKM : un processus dynamique de définition et de réutilisation de mémoires de projets by Smaïn Bekhti( Book )

2 editions published in 2003 in French and held by 3 WorldCat member libraries worldwide

Knowledge is currently considered as a strategic stake in the companies. We are, more and more, speaking about asset of knowledge necessary to be exploited. Several techniques of knowledge engineering were adapted to extract and model knowledge in an organization. These techniques make it possible to define organisations memories : professions or projects. Project memory defining requires a collection of knowledge from several sources, produced by many project participants. The exchanges (options, arguments, suggestions, etc.) during design meetings are generally volatile although they represent a fundamental know-how in an every project. The objective of thesis is to propose a dynamic process of modelling of knowledge emerging during a design project. This process allows, on one hand, a continuous capitalization and, on the other hand, a dynamic and flexible structuring of knowledge. The proposed approach offers a method of traceability in several stages (in particular the direct re-transcription and the restructuring) and introduce a dynamics as well into the method of traceability as into the memory of project structures. Moreover, the techniques of the activity eve were studied in order to represent the context in which a project of design is realized
Tests multivariés de comparaison de groupes basés reconnaissance des formes : applicatio à la pharmaco-EEG by Mireille Tohmé( Book )

2 editions published in 2009 in French and held by 2 WorldCat member libraries worldwide

Our objective is to quantify the efficiency of a psychotropic drug and perform a taxonomy of psychotropics. The difficulty of the problem results from the very few number of observations lying in a high dimensional space. We propose to replace the traditional hypothesis tests by a pattern recognition approach based on the error probability of the detector. We use the Leave One Out (LOO) estimator and the algorithmic stability to analyze the generalization performance of the considered detectors. We have observed a relationship between the power function of our test and the algorithmic stability. Under H0 and for NMC, we have shown that the distribution of the LOO estimate is independent from the observations probability density function. Our test has been successfully applied to ERP signals. We have finally extended the NMC test to the multi-class case. In order to obtain closed decision function, we proposed to optimize One Class SVM using the constraints of binary detection. This new approach allows us to reject outliers and proceed to the taxonomy of psychotropic drugs. Determining the threshold of our tests requires a lot of Monte Carlo simulations. For this reason, we also proposed fast SVM learn-ing algorithms, for classification, regression and also One Class SVM. These algorithms have shown to be efficient and able to perform on large data sets
Modélisation et simulation numérique des procédés de fabrication sous conditions extrêmes by Mazen Issa( Book )

2 editions published in 2010 in French and held by 2 WorldCat member libraries worldwide

Cette thèse propose une méthodologie numérique pour la modélisation et l'optimisation numérique des procédés de fabrication à grandes vitesses. Cette méthodologie numérique s'appuie sur un modèle thermo-élasto-visco-plastique avec écrouissages mixtes (cinématique et isotrope) avec différents niveaux de couplage aux effets de l'endommagement et de l'adoucissement thermique. Pour cette étude, nous avons étudié la sensibilité d'un coefficient de frottement de type coulomb sur le comportement thermomécanique. Le schéma de résolution dynamique explicite a été choisi pour résoudre le problème d'équilibre et un schéma d'intégration implicite est utilisé pour résoudre le modèle de comportement locale. Pour s'affranchir des problèmes de distortions du maillage et simuler la propagation d'une fissure, une méthodologie numérique basée sur des étapes de remaillage est proposée. Différents estimateurs d'erreurs sont utilisés pour adapter la taille des éléments en fonction de divers gradients thermomécaniques (déformation plastique cumulée, endommagement, dissipation plastique) afin d'améliorer les effets de localisation et l'évolution des divers bandes de cisaillement. Cette méthodologie est étudiée et validée sur divers exemples simples et dans le cas de la simulation de procédé industriels à grandes vitesses
Techniques de filtrage à noyau reproduisant : application à l'extraction des artéfacts cardiaques des données magnétoencéphalographiques by Ibtissam Constantin( Book )

2 editions published in 2007 in French and held by 2 WorldCat member libraries worldwide

The last years have witnessed the emergence of powerful learning technique, which rely on the theory of reproducing kernels : kernel methods. A central concept of these methods is the kernel trick which allows implicit embedding of the data in a feature space of arbitrary dimension by means of functions of two variables called kernels. Kernel methods have been applied in a wide range of problems and have shown outstanding performances. The are replacing neural networks in a variety of domains. The aim of this work is to introduce nonlinear filtering tools based on reproducing kernels. Chapter 1 provides the theoretical elements necessary for understanding kernel methods. Chapter 2, devoted to optimal filtering, presents a kernel variant of Wiener filter. To overcome the problems of ill-conditioning of the system of equations similar to Wiener-Hopf equations, we study four kernel methods which regularize the solution. Chapter 3 deals with adaptive filtering. The main difficulty encountered in kernel adaptive filtering is that the order of the filter grows linearly with the number of observations. Three filtering methods, which provide a solution for this problem, are analyzed and compared. On the experimental level, the proposed methods are applied to simulated data and to cardiac artefacts extraction from magnetoencephalographic signals
Ontologies sémiotiques pour le Web socio-sémantique by Jean-Pierre Cahier( Book )

2 editions published in 2005 in French and held by 2 WorldCat member libraries worldwide

Study of the cooperative knowledge management with hypertopic maps. To find their way in “territories” of complex activities with huge, specific and moving glossaries and shared meanings, human actors need maps. It is important to help them to use, to organize and to modify again and again the “topic map” linking topics describing their domain, their activity and their position as actors. Besides, there often exist several points of view; the topic map has to take this plurality into account; we name it a “Semiotic Ontology” and we present the Hypertopic model and the “Knowledge-Based Marletplace model (KBM) to represent this collectively constructed knowledge. Nowadays many researches are focused on a “Semantic Web” to provide better services. In this context of improving the Web standards, they should provide such “Hypertopic Maps” to improve content management and information retrieval. According to us, the more efficient and useful Semantic Web, understood as a shared meaning artifact using Web standards, is the one created within and by communities: it is a “Socio-Semantic Web”, by which the community could build a dynamic and collective meaning
Les mesures d'importance fiabilistes issues des études probabilistes de sûreté nucléaire : contrôle des incertitudes et nouvelles applications pour l'aide à la décision by Nicolas Duflot( Book )

2 editions published in 2007 in French and held by 2 WorldCat member libraries worldwide

This PhD thesis deals with the importance measures based on nuclear probabilistic safety analyses (PSA). With these indicators, the importance towards risk of the events considered in the PSA models can be measured. The first part of this thesis sets out the framework in which they are currently used. The information extracted from importance measures evaluation is used in industrial decision-making processes that may impact the safety of nuclear plants. In the second part of the thesis, we thus try to meet the requirements of reliability and simplicity with an approach minimising the uncertainties due to modelling. We also lay out a new truncation process of the set of the minimal cut set (MCS) corresponding to the baseline case which allows a quick, automatic and precise calculation of the importance measures. As PSA are increasingly used in risk-informed decision-making approaches, we have examined the extension of importance measures to groups of basic events. The third part of the thesis therefore presents the definition of the importance of events such as the failure of a system or the loss of a function, as well as their potential applications. PSA being considered to be a useful tool to design new nuclear power plants, the fourth part of the thesis sketches out a design process based both on classical importance measures and on new ones
Modélisation de l'endommagement des polycristaux via de nouveaux critères d'amorçage local et global by Morad Chadli( Book )

2 editions published in 2005 in French and held by 2 WorldCat member libraries worldwide

Une approche micromécanique est utilisée pour modéliser le comportement endommageable des polycristaux. Le comportement élastique est traité par souci de restreindre la modélisation du dommage granulaire via une variable interne scalaire (dg). Pour élargir le champ d'applications, il est donc nécessaire de tenir compte de l'effet de l'énergie élastique granulaire sur l'évolution de l'endommagement. Ainsi, une nouvelle stratégie est exploitée pour décrire le comportement endommageable sous divers chargements. Une des voies possibles de modélisation consiste ainsi à aborder plusieurs nouveaux aspects : (1) pour respecter l'auto-cohérence, un nouveau terme correctif concernant la déformation élastique est introduit. Ceci est dû au couplage (dg) élasticité-endommagement au niveau granulaire ; (2) proposer un nouveau critère d'endommagement granulaire dépendant de la déformation plastique granulaire cumulée et de la forme du trajet de chargement appliqué ; (3) développer un nouveau critère d'amorçage à l'échelle macroscopique via l'approche probabiliste de Weibull. Ceci nous donne à la fin une approche mixte (micromécanique-probabiliste). Les confrontations quantitatives de ce modèle avec l'aluminium 2024 montrent sa capacité à décrire surtout l'endommagement
Gestion de tâches de diagnostic d'un système réparti : application à l'optimisation de la disponibilité d'un système éolien de production d'énergie by Boubacar Niang( Book )

2 editions published in 2006 in French and held by 2 WorldCat member libraries worldwide

La recherche de disponibilité maximale d'un ensemble d'équipements répartis, en vue de réduire les arrêts et les coûts liés aux activités de maintenance, nécessite le développement d'un modèle d'aide aux décisions de maintenance préventive basées sur une gestion optimale des activités de diagnostic sur les processeurs embarqués. Il existe différentes méthodes de diagnostic, avec ou sans modèle, qui permettent de détecter, isoler et identifier les défauts des processus industriels tout en consommant plus ou moins du temps. Lorsque les équipements surveillés sont multiples et les tâches à déployer pour le diagnostic nombreuses, se pose alors le problème de leur gestion pour satisfaire les contraintes temporelles intrinsèques et extrinsèques liées à l'environnement et aux conditions d'utilisation. Nous proposons un modèle de gestion temps-réel des tâches de diagnostic et un algorithme génétique d'ordonnancement de ces tâches sur des processeurs répartis. Les algorithmes sont équivalents à des agents de diagnostic. L'objectif est d'ordonnancer un ensemble de combinaisons de tâches, en minimisant la durée totale de leur exécution sur les processeurs répartis, dans le respect des contraintes fixées. Ce problème étant de la classe NP-difficile, nous avons recherché des solutions basées sur les méthodes approchées qui, avec des temps de recherche raisonnables, tendent au mieux vers l'optimum. Une simulation de Monte Carlo appliquée à un système éolien de production d'énergie a permis d'évaluer l'impact de notre solution sur la disponibilité des équipements surveillés
Détection d'une évolution du risque de chute chez les personnes âgées by Hassan Amoud( Book )

2 editions published in 2006 in French and held by 2 WorldCat member libraries worldwide

Les recherches bibliographiques sur la caractérisation de l'équilibre statique ont permis de le caractériser par une soixantaine de paramètres divisés en 3 groupes : spatio-temporels, fréquentiels et stochastique. Ce dernier groupe a été analysé pour étudier sa capacité à identifier des différences posturales entre deux groupes de personnes âgées et témoins, sa robustesse et la durée minimale nécessaire pour son calcul. Une analyse par des méthodes non linéaires est menée en utilisant l'entropie estimée par plusieurs méthodes comme l'Approximate Entropie (ApEn), la Sample Entropie (SampEn) et la MultiScale Entropie (MSE). Cependant, ces méthodes souffrent des composantes « basse fréquence » se trouvant dans le signal postural. Pour remédier à ce problème, nous avons préconisé une nouvelle méthode appelée Entropie de Mode Intrinsèque (IMEn). Cette nouvelle méthode se base sur la décomposition empirique multimodale (EMD) en éliminant les composantes (IMFs) de basse fréquence. Les résultats obtenus ont montré que cette méthode est capable de caractériser l'équilibre postural et d'identifier les différences posturales entre les groupes. Finalement, une simulation de dégradation de l'équilibre a été réalisée pour permettre de sélectionner, parmi les paramètres étudiés, ceux qui sont capables d'identifier une dégradation de l'équilibre. Cette sélection de paramètres a été réalisée par des méthodes de détection de changements et des méthodes de sélection de variables supervisées. Cette étude a montré qu'il est possible de trouver plusieurs combinaisons de ces paramètres pour détecter une dégradation de l'équilibre
Etude du choc laser sur l'alliage de titane Ti-17 : application aux plaques minces by Christophe Cellard( Book )

2 editions published in 2010 in French and held by 2 WorldCat member libraries worldwide

Le choc laser est un traitement de surface permettant de renforcer la surface, principalement par l'introduction de contraintes résiduelles. La caractérisation du choc laser sur l'alliage de titane Ti-17 est effectuée avec un plan d'expériences. Les facteurs étudiés sont la puissance, la durée et le nombre des impacts du laser ainsi que l'épaisseur de la structure. Les réponses analysées sont l'écrouissage, la courbure, la rugosité et les contraintes résiduelles. Lorsqu'on cherche à appliquer la méthode du perçage incrémental à des plaques minces, sa formulation classique ne convient plus. Différentes solutions ont donc été proposées pour adapter cette méthode. Des modèles éléments-finis ont été mis au point pour calculer les coefficients de calibration pour différents modes de fixation des échantillons. Différents supports ont été testés expérimentalement pour maintenir les échantillons sans introduire d'erreurs systématiques. L'analyse du plan d'expériences a permis de caractériser les effets des différents paramètres étudiés sur les réponses. Ainsi, on constate que les variations de dureté dues au procédé sont essentiellement le fait des contraintes résiduelles et relativement peu de l'écrouissage. Deux méthodes ont été mises en place pour déterminer les profils de contraintes résiduelles complets et de déformations plastiques pour les échantillons épais. A partir des profils de déformations plastiques, une méthode pour retrouver le profil des contraintes résiduelles des échantillons minces a été proposée
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.91 (from 0.88 for Résolutio ... to 0.93 for DyPKM : un ...)

WorldCat IdentitiesRelated Identities
Alternative Names
Ecole doctorale 361. Sciences et Technologies (Troyes, Aube)

Ecole doctorale 361 (Troyes, Aube)

Ecole doctorale Sciences et Technologies (Troyes, Aube)

Ecole doctorale ST (Troyes, Aube)

ED 361

ED SPI

ED ST

ED361

Sciences et Technologies (Troyes, Aube)

Sciences pour l'Ingénieur (Troyes, Aube)

Université de technologie de Troyes. Ecole doctorale Sciences et Technologies

Université de technologie de Troyes. ED 361

UTT. Ecole doctorale Sciences et Technologies

UTT. ED 361

Languages
French (40)