WorldCat Identities

Gayton, Nicolas (1975- ...)

Overview
Works: 25 works in 27 publications in 2 languages and 94 library holdings
Roles: Author of introduction, Other, Opponent, Thesis advisor, Author
Publication Timeline
.
Most widely held works by Nicolas Gayton
La fiabilité en mécanique : des méthodes aux applications( Book )

1 edition published in 2018 in French and held by 65 WorldCat member libraries worldwide

"Depuis les années 1990, la fiabilité mécanique a fortement évolué grâce, notamment, à la mise au point de méthodes nouvelles dans le domaine de l'analyse de risque, de la fiabilité structurale, de la gestion des incertitudes ou encore de la décision en contexte incertain. Aujourd'hui, ces démarches sont arrivées à maturité et les méthodes et outils disponibles peuvent être utilisés en toute confiance pour des applications industrielles. Cet ouvrage présente dix études de cas dans les secteurs de l'industrie électronique, du génie civil, du risque sismique, automobile, ferroviaire et nucléaire. Les structures concernées sont à la fois des structures industrielles (pressuriseur), des structures de génie civil (pont, ouvrage maritime, bâtiment d'habitation) ou des composants (bogie, amplificateur de puissance). Ce livre, rédigé par des membres de l'Institut pour la Maîtrise des Risques (IMdR), est destiné à tous ceux qui traitent l'incertitude dans le domaine mécanique : décideurs, ingénieurs, concepteurs, ingénieurs de maintenance, enseignants, chercheurs, doctorants, autorités règlementaires, chefs de projet."--Quatrième de couverture
Key Characteristics identification by global sensitivity analysis by Dana Idriss( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Intégration des méthodes de sensibilité d'ordre élevé dans un processus de conception optimale des turbomachines : développement de méta-modèles by Zebin Zhang( Book )

2 editions published in 2014 in French and held by 2 WorldCat member libraries worldwide

The turbomachinery optimal design usually relies on some iterative methods with either experimental or numerical evaluations that can lead to high cost due to numerous manipulations and intensive usage of CPU. In order to limit the cost and shorten the development time, the present thesis work proposes to integrate a parameterization method and the meta-modelization method in an optimal design cycle of an axial low speed turbomachine. The parameterization, realized by the high order sensitivity study of Navier-Stokes equations, allows to construct a parameterized database that contains not only the evaluations results, but also the simple and cross derivatives of objectives as a function of parameters. Enriched information brought by the derivatives are utilized during the meta-model construction, particularly by the Co-Kriging method employed to couple several databases. Compared to classical methods that are without derivatives, the economic benefit of the proposed method lies in the use of less reference points. Provided the number of reference points is small, chances are a unique point presenting at one or several dimensions, which requires a hypothesis on the error distribution. For those dimensions, the Co-Kriging works like a Taylor extrapolation from the reference point making the most of its derivatives. This approach has been experimented on the construction of a meta-model for a conic hub fan. The methodology recalls the coupling of databases based on two fan geometries and two operating points. The precision of the meta-model allows to perform an optimization with help of NSGA-2, one of the optima selected reaches the maximum efficiency, and another covers a large operating range. The optimization results are eventually validated by further numerical simulations
On the consideration of uncertainty in design: optimization - reliability - robustness by Nicolas Lelièvre( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Dimensionnement semi-probabiliste des coques minces de révolution susceptibles d'instabilités géométriques by Nicolas Gayton( Book )

2 editions published in 2002 in French and held by 2 WorldCat member libraries worldwide

Dans le dimensionnement des structures minces, le flambage est un problème majeur, qu'il s'agisse de boîtes de boissons, de silos à grains ou bien encore de sous-marins. Au delà d'un certain niveau de chargement, la structure entre dans un état d'équilibre instable, et une perturbation quelconque va l'entraîner vers une autre position d'équilibre stable ou non. Toutes les études expérimentales menées sur ce type de structures mettent en évidence l'influence des défauts géométriques (ovalisation, variation des épaisseurs) sur le comportement mécanique de la structure. Les défauts géométriques sont fortement aléatoires et la nécessité de les prendre en compte en phase de dimensionnement est alors indispensable dans le but d'obtenir une conception fiable et économique. Traditionnellement, le dimensionnement des coques minces est assuré par un coefficient global prenant en compte les différentes variabilités rencontrées (défaut, propriétés géométriques, propriétes des matériaux). Cette approche du dimensionnement, en considérant un unique coefficient empirique, conduit à des structures fortement hétérogènes en terme de fiabilité. L'objectif de cette thèse est de proposer une démarche semi-probabiliste et des formats en relation avec un objectif de fiabilité, pour le dimensionnement des coques minces susceptibles d'instabilités pour lesquelles une modélisation mécanique MEF avec le code INCA/STANLAX est nécessaire. Cet objectif a nécessité tout d'abord de disposer d'outils de couplage mécano-fiabiliste efficaces en vue d'évaluer la fiabilité des coques minces. Plusieurs outils ont été développés dont la méthode CQ2RS par surfaces de réponse. Les méthodes de calibration de coefficients partiels ont été améliorées pour permettre un dimensionnement à partir de modèles par éléments finis. Enfin, à travers l'exemple de la maille raidie, nous montrons l'efficacité de trois formats de dimensionnement semi-probabiliste par rapport au code empirique classique BS5500
An iterative statistical tolerance analysis procedure to deal with linearized behavior models by Antoine Dumas( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

Assessment by kriging of the reliability of structures subjected to fatigue stress by Benjamin Echard( )

1 edition published in 2012 in English and held by 1 WorldCat member library worldwide

Traditional procedures for designing structures against fatigue are grounded upon the use of so-called safety factors in an attempt to ensure structural integrity while masking the uncertainties inherent to fatigue. These engineering methods are simple to use and fortunately, they give satisfactory solutions with regard to safety. However, they do not provide the designer with the structure's safety margin as well as the influence of each design parameter on reliability. Probabilistic approaches are considered in this thesis in order to acquire this information, which is essential for an optimal design against fatigue. A general approach for probabilistic analysis in fatigue is proposed in this manuscript. It relies on the modelling of the uncertainties (load, material properties, geometry, and fatigue curve), and aims at assessing the reliability level of the studied structure in the case of a fatigue failure scenario. Classical reliability methods require a large number of calls to the mechanical model of the structure and are thus not applicable when the model evaluation is time-demanding. A family of methods named AK-RM (Active learning and Kriging-based Reliability methods) is proposed in this research work in order to solve the reliability problem with a minimum number of mechanical model evaluations. The general approach is applied to two case studies submitted by SNECMA in the frame of the ANR project APPRoFi
Optimisation auto-adaptative en environnement d'analyse multidisciplinaire via les modèles de krigeage combinés à la méthode PLS by Mohamed Amine Bouhlel( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

Les turbomachines aéronautiques sont composées de plusieurs roues aubagées dont la fonction estde transférer l'énergie de l'air au rotor. Les roues aubagées des modules compresseur et turbine sontdes pièces particulièrement sensibles car elles doivent répondre à des impératifs de performanceaérodynamique, de tenue mécanique, de tenue thermique et de performance acoustique. L'optimisation aéro-méca-acoustique ou aéro-thermo-mécanique des aubages consiste à chercher, pourun ensemble de formes aérodynamiques paramétrées (par plusieurs dizaines de variables), celleassurant le meilleur compromis entre la performance aérodynamique du moteur et la satisfactionde plusieurs dizaines de contraintes souvent contradictoires. Cette thèse introduit une méthode d'optimisation basée sur les métamodèles et adaptée à la grande dimension pour répondre à la problématique industrielle des aubages. Les contributions de cettethèse portent sur deux aspects : le développement de modèles de krigeage, et l'adaptation d'unestratégie d'optimisation pour la gestion du grand nombre de variables et de contraintes.La première partie de ce travail traite des modèles de krigeage. Nous avons proposé une nouvelleformulation du noyau de covariance permettant de réduire le nombre de paramètres du modèleafin d'accélérer sa construction. Une des limitations connues du modèle de krigeage concernel'estimation de ses paramètres. Cette estimation devient de plus en plus difficile lorsque nousaugmentons la dimension du phénomène à approcher. En particulier, la base de données nécessitedavantage de points et par conséquent la matrice de covariance du modèle du krigeage est de plusen plus coûteuse à inverser. Notre approche consiste à réduire le nombre de paramètres à estimer en utilisant la méthode de régression des moindres carrés partiels (PLS pour Partial Least Squares). Cette méthode de réduction dimensionnelle fournit des informations sur la relation linéaire entre les variables d'entrée et la variable de sortie. Ces informations ont été intégrées dans les noyaux du modèle de krigeage tout en conservant les propriétés de symétrie et de positivité des noyaux. Grâce à cette approche, la construction de ces nouveaux modèles appelés KPLS est très rapide étant donné le faible nombre de paramètres nécessaires à estimer. La validation de ces modèles KPLS sur des cas test académiques ou industriels a démontré leur qualité de prédiction équivalente voire même meilleure que celle des modèles de krigeage classiques. Dans le cas de noyaux de covariance de type exponentiel, laméthode KPLS peut être utilisée pour initialiser les paramètres du krigeage classique, afin d'accélérerla convergence de l'estimation des paramètres du modèle. La méthode résultante, notée KPLS+K, a permis d'améliorer la qualité des modèles dans le cas de fonctions fortement multimodales. La deuxième contribution de la thèse a consisté à développer une stratégie d'optimisation globale sous contraintes pour la grande dimension, en s'appuyant sur les modèles KPLS ou les modèlesKPLS+K. En effet, nous avons étendu la méthode d'optimisation auto-adaptative connue dans lalittérature sous le nom "Efficient Global Optimisation, EGO" pour gérer les problèmes d'optimisationsous contraintes en grande dimension. Différents critères d'enrichissement adaptatifs ont pu êtreexplorés. Cette stratégie a permis de retrouver l'optimum global sur des problèmes académiquesjusqu'à la dimension 50. La méthode proposée a été confrontée à deux types de problèmes industriels, le cas test MOPTA issu de l'industrie automobile (124 variables d'entrée et 68 fonctions contraintes) et le cas test Snecma des aubes de turbomachines (50 variables d'entrée et 31 fonctions contraintes). Les résultats ont permis de montrer la validité de la démarche ainsi que les limites de la méthode pour une application dans un cadre industriel
Stochastic modeling of road-induced loads for reliability assessment of chassis and vehicle components through simulation by William Fauriat( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

In order to design vehicle components that will achieve a prescribed reliability target, it is imperative to possess a precise description of the variability of the loads to which such components may be subjected within the environment in which they are used. The strong diversity of the loads imposed on different vehicles by different customers, or on a particular vehicle throughout its life, constitutes a formidable statistical challenge. Generally, the acquisition of information about the load variability experienced by vehicle components is based on the use of load measurement campaigns. The complexity, duration and cost of such campaigns naturally limit the size of the statistical samples that may be collected. Moreover, the recorded load histories are inevitably dependent on the vehicle used for the measurements.The work presented within this manuscript explores the possibility of a fundamental change in the approach to load characterisation. The objective is to make use of simulation rather than measurements and focus statistical analysis efforts not directly on load variability itself but on the variability of the factors that determine such loads. Stochastic models are proposed to describe the evolution of the geometry of road surfaces covered by vehicles, as well as the evolution of vehicles' speed on those road surfaces. The characterisation of the variability of such factors is performed in combination with the use of life situations. The latter may be employed to divide the load histories associated to different vehicles, within a population of customers, and analyse their variation more easily. Eventually, the dynamic response of the vehicle to the excitation imposed by the road can bederived through simulation.Statistical data on the variation of the road and speed factors obviously have to be acquired in order to apply the methodology. For example, road-related information may be obtained through the use of a road profile estimation algorithm proposed within the framework of this manuscript. Such information may then be exploited to constitute, through simulation, an arbitrarily large set of load histories at a very low cost and for any vehicle whose mechanical characteristics are known.The proposed methodology based on simulation enables us to study more extensively the variability of road-induced fatigue loads, the influence of the different factors that determine such loads, as well as the effect they have on the reliability of any considered vehicle component
Approche fiabiliste pour le tolérancement des assemblages par fixation de structures composite-métal by Ramzi Askri( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

L'utilisation des matériaux composites dans les structures assemblées a permis d'atteindre des niveaux de performance très élevés grâce aux propriétés spécifiques de ces matériaux. Cependant, pour garantir ces performances, les industriels s'appuient sur des gammes d'assemblage complexes afin de réduire les incertitudes et ainsi maitriser les chemins d'effort. Par exemple pour les assemblages par fixations, le contreperçage est privilégié pour limiter les défauts de positionnement des alésages et limiter les jeux. Ces gammes d'assemblage, incompatibles avec le principe d'interchangeabilité, augmentent considérablement les coûts de production.Aujourd'hui aucun outil ne permet de justifier, de remettre en cause ou d'optimiser les gammes d'assemblage en terme de compromis coût performance.Ce manuscrit propose donc une démarche de tolérancement fiabiliste des paramètres incertains pilotant le comportement des assemblages métal-composite par fixation. L'approche développée a pour but d'étudier l'effet des variabilités géométriques et matériaux sur la tenue des assemblages et de proposer une démarche pour les tolérancer. Le caractère probabiliste de la démarche, a nécessité le développement d'un modèle simplifié de comportement des assemblages par fixations afin de maitriser les temps de calcul. Ce modèle, construit à partir de surfaces rigides connectées et des éléments plaque 3-D, permet de représenter finement les phénomènes prépondérants dans le comportement des assemblages(jeu alésage fixation, contact, adhérence induit par la précharge des fixations). Il a été validé à la fois numériquement et expérimentalement. La réponse numérique de la propagation des incertitudes sur un critère de tenue mécanique est ensuite formalisée par une loi de densité de probabilité analytique. Les paramètres de cette loi sont identifiés par une stratégie combinant la méthode de Monte Carlo et la recherche des pire-cas avec un Algorithme Génétique. Cette approche permet alors de calculer les tolérances associées à un niveau de fiabilité visé
Vers une planification optimale de la maintenance des structures existantes sur la base d'une analyse de fiabilité en fonction du temps by Morteza Ahmadivala( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

Les structures de génie civil jouent un rôle important dans tout pays pour améliorer l'économie ainsi que le bien-être social et environnemental. Une défaillance indésirable peut avoir des impacts significatifs à différents niveaux pour le propriétaire de la structure et pour les utilisateurs. La fatigue est l'un des principaux processus de dégradation des structures en acier qui provoque une défaillance structurelle avant la fin de la durée de vie prévue. Pour éviter des défaillances imprévues à cause de la fatigue, une Gestion complète du Cycle de Vie structurelle (GCV) est nécessaire pour minimiser le coût du cycle de vie et maximiser la durée de vie structurelle. L'un des principaux objectifs du GCV peut être lié à l'optimisation de la planification de la maintenance structurelle. Atteindre cet objectif est une tâche difficile qui nécessite de relever certains défis tels que la prédiction de la performance structurelle dans l'incertitude, l'utilisation de données de Surveillance de l'État de la Structure (SES) pour réduire les incertitudes, la prise en compte du comportement de propagation des fissures pour des composants donnés, la fiabilité et la décision éclairée par les coûts, réalisation et effet des actions de maintenance, entre autres. En conséquence, les contributions suivantes sont prises en compte dans cette recherche pour améliorer les capacités du GCV structurel qui sont expliquées brièvement dans la suite. Développement d'une nouvelle méthode de fiabilité dépendent du temps pour l'analyse de la fiabilité en fatigue.Étudier l'efficacité des outils avancés de propagation des fissures pour étudier les problèmes de fissuration par fatigue indésirables et caractériser certaines actions de réparation possibles sur une étude de cas réel.Présentation des hypothèses et des étapes de simplification requises pour intégrer la méthode de fiabilité dépendent du temps proposé avec les modèles de propagation des fissures afin d'approximer la fiabilité de fatigue dépendent du temps.Comme première contribution de cette thèse, une nouvelle méthode de fiabilité dépendante du temps appelée AK-SYS-t est proposée. Cette méthode fournit un outil efficace et précis pour évaluer la fiabilité en fonction du temps d'un composant par rapport aux autres méthodes disponibles. AK-SYS-t relie la fiabilité en fonction du temps aux problèmes de fiabilité du système et tente d'exploiter les méthodes de fiabilité du système efficaces telles que AK-SYS pour l'analyse de la fiabilité en fonction du temps. Il convient de mentionner que l'analyse de la fiabilité en fonction du temps est nécessaire dans ce contexte, car la détérioration des performances (comme la fatigue) est un processus dépendant du temps associé à des paramètres dépendant du temps tels que le chargement de fatigue.Un autre sujet connexe est l'étude du phénomène de propagation des fissures avec des outils de modélisation avancés tels que la Méthode des Éléments Finis (MEF) et la méthode XFEM (eXtended Finite Element Method). À des fins d'illustration, la fissure à la racine d'une soudure d'angle est prise en compte (détail de fatigue courant dans les ponts avec platelage orthotropes). Une question importante étudiée ici est l'influence de la tension transversale dans la plaque de pont sur la direction de la propagation de la fissure. On montre comment l'augmentation de la tension transversale dans la plaque de pont peut modifier la propagation des fissures vers la plaque de pont. Ces fissures sont considérées comme dangereuses car elles sont difficiles à inspecter et à détecter. En fin de compte, XFEM est utilisé pour étudier l'efficacité de deux solutions de réparation possibles. (...)
Utilisation des méthodes de Krigeage pour le dimensionnement en fatigue des structures éoliennes posées en mer. by Quentin Huchet( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The mechanical certification of wind turbine structures is required for the funding of newoffshore projects on the French coasts. In order to ensure a maximal safety level of installations,a series of structural analyzes are required by the certification bodies. Amongst all, thedamage based computations represent an important numerical effort for EDF. The presentedworks focus on the applicability and the performances of Kriging metamodels for the estimationof the lifetime cumulated damage of offshore wind turbine structures (AK-DA approach)and the damage based reliability assessment of new designs (AK-MCS/AK-DA coupling)
AK-MCSi: A Kriging-based method to deal with small failure probabilities and time-consuming models( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

Abstract: Reliability analyses still remain challenging today for many applications. First, assessing small failure probabilities is tedious because of the very large number of calculations required. Secondly, mechanical system models can require considerable numerical efforts. To deal with these problems, classical reliability analysis methods may be combined with those of meta-modeling, to enable the construction of a model like the former numerical model but with fewer time-consuming evaluations. Among these approaches, the Active Learning Reliability Method, combining Kriging and Monte Carlo Simulations, has received attention over the last few years. This method has several drawbacks, such as the difficulty to assess small failure probabilities and its inability to parallelize computations. The proposed paper focuses on the improvement of such a method to solve both these issues. It introduces a sequential Monte Carlo Simulation technique to deal with small failure probabilities. A multipoint enrichment technique is also proposed to allow parallelization and thus to reduce numerical efforts. Both these new techniques give rise to the proposal of a new, more conservative stopping condition for learning. The efficiency of this new method, called AK-MCSi, is then demonstrated using three examples for which the results show a significant reduction in the time required and/or the number of iterations needed for an accurate evaluation of the failure probability
Développement de méthodes probabilistes pour l'analyse des tolérances des systèmes mécaniques sur-contraints by Antoine Dumas( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

Tolerance analysis of mechanism aims at evaluating product quality during its design stage. Technique consists in computing a defect probability of mechanisms in large series production. An assembly condition and a functional condition are checked. Current method mixes a Monte Carlo simulation and an optimization algorithm which is too much time consuming. The objective of this thesis is to develop new efficient method based on probabilistic approach to deal with the tolerance analysis of overconstrained mechanism. First, a linearization procedure is proposed to simplify the optimization algorithm step. The impact of such a procedure on the probability accuracy is studied. To overcome this issue, iterative procedures are proposed to deal with the assembly problem. They enable to compute accurate defect probabilities in a reduced computing time. Besides, a new resolution method based on the system reliability method FORM (First Order Reliability Method) for systems was developed for the functional problem. In order to apply this method, a new system formulation of the tolerance analysis problem is elaborated. Formulation splits up the overconstrained mechanism into several isoconstrained configurations. The goal is to consider only the main configurations which lead to a failure situation. The proposed method greatly reduces the computing time allowing getting result within minutes. Low probabilities can also be reached and the order of magnitude does not influence the computing time
Intégration d'information a priori dans la régression de processus Gaussiens : Applications à l'ingénierie aéronautique by Ankit Chiplunkar( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

In this thesis, we propose to build better Gaussian Process (GP) modelsby integrating the prior knowledge of Aircraft design with experimental data. Due tothe high cost of performing experiments on physical systems, models become an efficientmeans to designing physical systems. We demonstrate how to create efficient models byincorporating the prior information from engineering design, mainly by changing the covariancefunctions of the GP.We propose GP models to detect onset of non-linearity, detectmodal parameters and interpolate position of shock in aerodynamic experiments. Similarly,physical laws between multiple outputs can be enforced by manipulating the covariancefunctions, we propose to integrate flight-mechanics to better identify loads using thesemodels. For each application we compare the proposed model with the state-of-the-artmodel and demonstrate the cost or performance gains achieved
Métamodèle multi-fidélité pour l'estimation de probabilité de défaillance : application aux structures EMR by Ludovic Mell( )

1 edition published in 2021 in French and held by 1 WorldCat member library worldwide

In structural design, taking into accountuncertainties and errors allows to improvethe estimation of failure risk. This workaims at controling the discretization error introducedby the finite element method in the reliabilityanalysis. Two strategies are proposed tocouple a metamodel with Monte-Carlo estimatorsand discretization error estimators. Thefirst strategy uses a posteriori estimators ofthe discretization error with a kriging metamodelor a support vector machine classifier.It can be used to compute discretization errorbounds on the probability of failure. The secondstrategy exploits a priori knowledge of themesh convergence rate for the quantity of interestdefining the failure of the structure. It allowsto extrapolate this quantity of interest andthe probability of failure without discretizationerror. A posteriori estimation of the discretizationerror is then considered in the context ofreliability assessment of structures used in themarine renewable energy (MRE) industry. Oneof the failure scenarios that need to be studiedwhen deploying a structure at sea is fatiguedue to cyclic loading. A new approach allowingto propagate bounds obtained on the localstress toward the fatigue damage of the structureis proposed
Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances by Paul Beaucaire( )

1 edition published in 2012 in French and held by 1 WorldCat member library worldwide

To design mechanical systems, functional dimensioning and tolerancing consists in allocating a target value and a tolerance to part dimensions. More precisely, tolerance analysis consists in checking that chosen tolerances allow the mechanism to be functional. In the opposite, the tolerance synthesis goal is to determine those tolerances, optimaly if possible, such as functional requirements are respected. Traditional statistical approaches are very useful in pre-design phases, but are incapable of estimating precisely non-quality risks. This PhD thesis adresses this problem from a different point of view. The objective is no longer to respect functional requirements but to guarantee the Non-Conformity Rate (NCR) of the mechanism. It is the probability that the functional requirement is not respected. Reliability methods, based on probabilistic theory, allow a precise and efficient calculation of the NCR. The main goal of this thesis is to explore tolerance analysis and synthesis domains in order to identify potential contributions of reliability methods to these issues. In this work, different reliability tools are provided enabling tolerance analysis of all kind of mechanisms with or without gaps. The probability theory allows a detailed modeling of parts dimensions. In particular, the APTA (Advanced Probability-based Tolerance Analysis of products) approach is designed to take into account random variations of some parameters such as mean shifts which influence highly the NCR. As tolerance analysis is more complex for mechanisms with gaps, a specific method is designed based on a decomposition of contact points situations and the use of a reliability system method. Several sensitivity indexes are also proposed to identify the leading dimensions on the NCR. The optimization of the production cost, under a NCR constraint, enables an optimal tolerance synthesis. The potential benefits in terms of costs exceed 50% compared to initial designs while keeping under control quality levels of products. Companies RADIALL SA and VALEO Wiping Systems, designers and manufacturers of products for the automotive and aeronautic industries, have provided case studies on which is demonstrated the relevance of the presented work. Based on this work, the company Phimeca Engineering, specialized in uncertainties, is developing and commercializing a professional computer tool
Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension by Nicolas Lelièvre( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

Les ingénieurs utilisent de plus en plus de modèles numériques leur permettant de diminuer les expérimentations physiques nécessaires à la conception de nouveaux produits. Avec l'augmentation des performances informatiques et numériques, ces modèles sont de plus en plus complexes et coûteux en temps de calcul pour une meilleure représentation de la réalité. Les problèmes réels de mécanique sont sujets en pratique à des incertitudes qui peuvent impliquer des difficultés lorsque des solutions de conception admissibles et/ou optimales sont recherchées. La fiabilité est une mesure intéressante des risques de défaillance du produit conçu dus aux incertitudes. L'estimation de la mesure de fiabilité, la probabilité de défaillance, nécessite un grand nombre d'appels aux modèles coûteux et deviennent donc inutilisable en pratique. Pour pallier ce problème, la métamodélisation est utilisée ici, et plus particulièrement les méthodes AK qui permettent la construction d'un modèle mathématique représentatif du modèle coûteux avec un temps d'évaluation beaucoup plus faible. Le premier objectif de ces travaux de thèses est de discuter des formulations mathématiques des problèmes de conception sous incertitudes. Cette formulation est un point crucial de la conception de nouveaux produits puisqu'elle permet de comprendre les résultats obtenus. Une définition des deux concepts de fiabilité et de robustesse est aussi proposée. Ces travaux ont abouti à une publication dans la revue internationale Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). Le second objectif est de proposer une nouvelle méthode AK pour l'estimation de probabilités de défaillance associées à des évènements rares. Cette nouvelle méthode, nommée AK-MCSi, présente trois améliorations de la méthode AK-MCS : des simulations séquentielles de Monte Carlo pour diminuer le temps d'évaluation du métamodèle, un nouveau critère d'arrêt sur l'apprentissage plus stricte permettant d'assurer le bon classement de la population de Monte Carlo et un enrichissement multipoints permettant la parallélisation des calculs du modèle coûteux. Ce travail a été publié dans la revue Structural Safety (Lelièvre, et al. 2018). Le dernier objectif est de proposer de nouvelles méthodes pour l'estimation de probabilités de défaillance en grande dimension, c'est-à-dire un problème défini à la fois par un modèle coûteux et un très grand nombre de variables aléatoires d'entrée. Deux nouvelles méthodes, AK-HDMR1 et AK-PCA, sont proposées pour faire face à ce problème et sont basées respectivement sur une décomposition fonctionnelle et une technique de réduction de dimension. La méthode AK-HDMR1 fait l'objet d'une publication soumise à la revue Reliability Engineering and Structural Safety le 1er octobre 2018
Méthodes probabilistes pour la conception mécanique : application à la fatigue des structures et à l'analyse des tolérances by Nicolas Gayton( Book )

1 edition published in 2012 in French and held by 1 WorldCat member library worldwide

Key characteristics identification by tolerance-based sensitivity analysis by Dana Idriss( )

1 edition published in 2021 in English and held by 1 WorldCat member library worldwide

Pendant la phase de conception de la fabrication d'un produit, les concepteurs essaient de ne spécifier que les dimensions critiques nécessaires ou ce qu'on appelle les "cotes critiques". Sachant que le traitement des cotes critiques prend du temps et est coûteux, il est préférable de réduire leur nombre et d'exclure les paramètres non contributifs. Différentes stratégies basées sur des approches qualitatives ou quantitatives pour l'identification de ces dimensions sont suivies parles entreprises. La méthode commune consiste à définir les exigences fonctionnelles critiques qui sont exprimées en termes de dimensions.Lorsque les exigences fonctionnelles sont définies comme critiques, toutes les dimensions concernées sont étiquetées comme des cotes critiques. Cependant, elles n'ont pas la même importance et doivent être classées entre paramètres contributifs et non contributifs. Il n'existe pas de méthodes quantitatives qui permettent d'identifier les cotes critiques des exigences fonctionnelles critiques. Cette thèse propose des méthodologies numériques qui sont des étapes vers un meilleur classement des cotes critiques.La première méthodologie est basée sur l'analyse de sensibilité globale et plus précisément sur l'approche de Sobol'. La sensibilité du taux de non-conformité correspondant à la production d'un produit est mesurée par rapport aux paramètres variables caractérisant les dimensions. La méthode est appliquée, d'abord sur un exemple simple en deux parties, puis sur un système ayant une exigence fonctionnelle linéarisée et enfin sur un système ayant deux exigences fonctionnelles non linéaires. Les résultats montrent les effets principaux des dimensions ainsi que leurs interactions. Par conséquent, il est possible de donner la priorité à certaines d'entre elles, de négliger l'effet des autres et de les classer respectivement comme cotes critiques ou non.La deuxième méthodologie est basée sur l'allocation de tolérance à iso-sensibilité. Elle prend en considération les intervalles de tolérance, les exigences de capabilités et la formulation mathématique de la boucle topologique comprenant les dimensions étudiées. Cette méthode consiste à considérer que toutes les dimensions impliquées dans une exigence fonctionnelle critique ont des sensibilités égales, puis à estimer leurs intervalles de tolérance pour correspondre à ce que l'on appelle "l'allocation de tolérance d'iso-sensibilité". Ceci est fait dans les conditions requises par les entreprises pour une production de haute qualité.La condition à satisfaire est que le Taux de Non-Conformité (TNC) doit être égal à une valeur cible. Il s'agit donc d'un problème d'optimisation dont l'objectif est d'avoir des sensibilités égales et des contraintes d'égalité sur la valeur cible du TNC pour estimer les intervalles de tolérance.Les intervalles de tolérance estimés sont ensuite comparés à des valeurs de tolérance de référence du fabricant. Ainsi, lorsqu'un intervalle de tolérance pour une dimension correspondante ne peut être atteint, elle est considérée comme une cote critique. Finalement, les deux méthodologies sont appliquées sur un système hyperstatique, montrant leur capacité à être étendues à des cas industriels
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.89 (from 0.87 for Key Charac ... to 0.97 for Key Charac ...)

Languages
French (12)

English (10)