WorldCat Identities

Le Riche, Rodolphe

Overview
Works: 28 works in 29 publications in 2 languages and 30 library holdings
Genres: Academic theses 
Roles: Opponent, Other, Author, Thesis advisor
Classifications: LD5655.V856, 519.23
Publication Timeline
.
Most widely held works by Rodolphe Le Riche
Optimization of composite structures by genetic algorithms by Rodolphe Le Riche( Book )

2 editions published in 1994 in English and held by 3 WorldCat member libraries worldwide

Modeling and optimization with Gaussian processes in reduced eigenbases by David Gaudrie( )

1 edition published in 2020 in English and held by 2 WorldCat member libraries worldwide

Métamodélisation et optimisation de dispositifs photoniques by Cédric Durantin( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

La simulation numérique est couramment utilisée pour étudier le comportement d'un composant et optimiser sa conception. Pour autant, chaque calcul est souvent coûteux en termes de temps et l'optimisation nécessite de résoudre un grand nombre de fois le modèle numérique pour différentes configurations du composant. Une solution actuelle pour réduire le temps de calcul consiste à remplacer la simulation coûteuse par un métamodèle. Des stratégies sont ensuite mises en place pour réaliser l'optimisation du composant à partir du métamodèle. Dans le cadre de cette thèse, trois dispositifs représentatifs des applications pouvant être traitées au sein du CEA LETI sont identifiés. L'étude de ces cas permet d'établir deux problématiques à résoudre. La première concerne la métamodélisation multi-fidélité, qui consiste à construire un métamodèle à partir de deux simulations du même composant ayant une précision différente. Les simulations sont obtenues à partir de différentes approximations du phénomène physique et aboutissent à un modèle appelé haute-fidélité (précis et coûteux) et un modèle basse fidélité (grossier et rapide à évaluer). Le travail sur cette méthode pour le cas de la cellule photoacoustique a amené au développement d'un nouveau métamodèle multifidélité basé sur les fonctions à base radiale. La deuxième problématique concerne la prise en compte des incertitudes de fabrication dans la conception de dispositifs photoniques. L'optimisation des performances de composants en tenant compte des écarts observés entre la géométrie désirée et la géométrie obtenue en fabrication a nécessité le développement d'une méthode spécifique pour le cas du coupleur adiabatique
Dual Evolutionary Optimization : An Exact penalty Approach by Frédéric Guyon( Book )

1 edition published in 1998 in English and held by 1 WorldCat member library worldwide

A dual implementation of an evolutionary algorithm is presented. Proof of convergence to the solution of the dual problem is given. Under the assumption that the primal problem is exactly solved, the rate of convergence is at least linear. Implication of approximately solving the primal problem are discussed and a dual improvement test is proposed. An exact penalty function is presented which uses information gained from the dual search. For bounded constraint functions, the exact penalty admits the solution of the primal problem as global minimum. Numerical tests are shown for convex and nonconvex functions of continuous variables with one or many constraints
Indices de sensibilité via des méthodes à noyaux pour des problèmes d'optimisation en grande dimension by Adrien Spagnol( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

This thesis treats the optimization under constraints of high-dimensional black-box problems. Common in industrial applications, they frequently have an expensive associated cost which make most of the off-the-shelf techniques impractical. In order to come back to a tractable setup, the dimension of the problem is often reduced using different techniques such as sensitivity analysis. A novel sensitivity index is proposed in this work to distinct influential and negligible subsets of inputs in order to obtain a more tractable problem by solely working with the primer. Our index, relying on the Hilbert Schmidt independence criterion, provides an insight on the impact of a variable on the performance of the output or constraints satisfaction, key information in our study setting. Besides assessing which inputs are influential, several strategies are proposed to deal with negligible parameters. Furthermore, expensive industrial applications are often replaced by cheap surrogate models and optimized in a sequential manner. In order to circumvent the limitations due to the high number of parameters, also known as the curse of dimensionality, we introduce in this thesis an extension of the surrogated-based optimization. Thanks to the aforementioned new sensitivity indices, parameters are detected at each iteration and the optimization is conducted in a reduced space
Intégration d'information a priori dans la régression de processus Gaussiens : Applications à l'ingénierie aéronautique by Ankit Chiplunkar( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

In this thesis, we propose to build better Gaussian Process (GP) modelsby integrating the prior knowledge of Aircraft design with experimental data. Due tothe high cost of performing experiments on physical systems, models become an efficientmeans to designing physical systems. We demonstrate how to create efficient models byincorporating the prior information from engineering design, mainly by changing the covariancefunctions of the GP.We propose GP models to detect onset of non-linearity, detectmodal parameters and interpolate position of shock in aerodynamic experiments. Similarly,physical laws between multiple outputs can be enforced by manipulating the covariancefunctions, we propose to integrate flight-mechanics to better identify loads using thesemodels. For each application we compare the proposed model with the state-of-the-artmodel and demonstrate the cost or performance gains achieved
Contributions à l'optimisation multidisciplinaire sous incertitude, application à la conception de lanceurs by Loïc Brevault( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

Launch vehicle design is a Multidisciplinary Design Optimization problem whose objective is to find the launch vehicle architecture providing the optimal performance while ensuring the required reliability. In order to obtain an optimal solution, the early design phases are essential for the design process and are characterized by the presence of uncertainty due to the involved physical phenomena and the lack of knowledge on the used models. This thesis is focused on methodologies for multidisciplinary analysis and optimization under uncertainty for launch vehicle design. Three complementary topics are tackled. First, two new formulations have been developed in order to ensure adequate interdisciplinary coupling handling. Then, two new reliability techniques have been proposed in order to take into account the various natures of uncertainty, involving surrogate models and efficient sampling methods. Eventually, a new approach of constraint handling for optimization algorithm ”Covariance Matrix Adaptation - Evolutionary Strategy” has been developed to ensure the feasibility of the optimal solution. All the proposed methods have been compared to existing techniques in literature on analysis and design test cases of launch vehicles. The results illustrate that the proposed approaches allow the improvement of the efficiency of the design process and of the reliability of the found solution
Optimisation auto-adaptative en environnement d'analyse multidisciplinaire via les modèles de krigeage combinés à la méthode PLS by Mohamed Amine Bouhlel( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

Les turbomachines aéronautiques sont composées de plusieurs roues aubagées dont la fonction estde transférer l'énergie de l'air au rotor. Les roues aubagées des modules compresseur et turbine sontdes pièces particulièrement sensibles car elles doivent répondre à des impératifs de performanceaérodynamique, de tenue mécanique, de tenue thermique et de performance acoustique. L'optimisation aéro-méca-acoustique ou aéro-thermo-mécanique des aubages consiste à chercher, pourun ensemble de formes aérodynamiques paramétrées (par plusieurs dizaines de variables), celleassurant le meilleur compromis entre la performance aérodynamique du moteur et la satisfactionde plusieurs dizaines de contraintes souvent contradictoires. Cette thèse introduit une méthode d'optimisation basée sur les métamodèles et adaptée à la grande dimension pour répondre à la problématique industrielle des aubages. Les contributions de cettethèse portent sur deux aspects : le développement de modèles de krigeage, et l'adaptation d'unestratégie d'optimisation pour la gestion du grand nombre de variables et de contraintes.La première partie de ce travail traite des modèles de krigeage. Nous avons proposé une nouvelleformulation du noyau de covariance permettant de réduire le nombre de paramètres du modèleafin d'accélérer sa construction. Une des limitations connues du modèle de krigeage concernel'estimation de ses paramètres. Cette estimation devient de plus en plus difficile lorsque nousaugmentons la dimension du phénomène à approcher. En particulier, la base de données nécessitedavantage de points et par conséquent la matrice de covariance du modèle du krigeage est de plusen plus coûteuse à inverser. Notre approche consiste à réduire le nombre de paramètres à estimer en utilisant la méthode de régression des moindres carrés partiels (PLS pour Partial Least Squares). Cette méthode de réduction dimensionnelle fournit des informations sur la relation linéaire entre les variables d'entrée et la variable de sortie. Ces informations ont été intégrées dans les noyaux du modèle de krigeage tout en conservant les propriétés de symétrie et de positivité des noyaux. Grâce à cette approche, la construction de ces nouveaux modèles appelés KPLS est très rapide étant donné le faible nombre de paramètres nécessaires à estimer. La validation de ces modèles KPLS sur des cas test académiques ou industriels a démontré leur qualité de prédiction équivalente voire même meilleure que celle des modèles de krigeage classiques. Dans le cas de noyaux de covariance de type exponentiel, laméthode KPLS peut être utilisée pour initialiser les paramètres du krigeage classique, afin d'accélérerla convergence de l'estimation des paramètres du modèle. La méthode résultante, notée KPLS+K, a permis d'améliorer la qualité des modèles dans le cas de fonctions fortement multimodales. La deuxième contribution de la thèse a consisté à développer une stratégie d'optimisation globale sous contraintes pour la grande dimension, en s'appuyant sur les modèles KPLS ou les modèlesKPLS+K. En effet, nous avons étendu la méthode d'optimisation auto-adaptative connue dans lalittérature sous le nom "Efficient Global Optimisation, EGO" pour gérer les problèmes d'optimisationsous contraintes en grande dimension. Différents critères d'enrichissement adaptatifs ont pu êtreexplorés. Cette stratégie a permis de retrouver l'optimum global sur des problèmes académiquesjusqu'à la dimension 50. La méthode proposée a été confrontée à deux types de problèmes industriels, le cas test MOPTA issu de l'industrie automobile (124 variables d'entrée et 68 fonctions contraintes) et le cas test Snecma des aubes de turbomachines (50 variables d'entrée et 31 fonctions contraintes). Les résultats ont permis de montrer la validité de la démarche ainsi que les limites de la méthode pour une application dans un cadre industriel
Analyse statistique de la diversité en anthropometrie tridimensionnelle by Aikaterini Kollia( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

L'anthropométrie est le domaine scientifique qui étudie les dimensions du corps humain. La complexité de la morphologie du corps nécessite une analyse 3D, aujourd'hui permise par les progrès des scanners 3D. L'objectif de cette étude est de comparer les populations et utiliser les résultats pour mieux adapter les produits sportifs à la morphologie des utilisateurs. Des campagnes de mensuration 3D ont été réalisées et des algorithmes de traitement automatique ont été créés pour analyser les nuages de points des sujets scannés. Basés sur les méthodes d'images et de géométrie, ces algorithmes repèrent des points anatomiques, calculent des mesures 1D, alignent les sujets scannés et créent des modèles anthropométriques 3D représentatifs des populations. Pour analyser les caractéristiques anthropométriques, des statistiques de premier ordre et factorielles ont été adaptées pour être utilisées dans l'espace 3D. Les méthodes ont été appliquées à trois parties : le pied, la tête et la poitrine. Les différences morphologiques entre les populations, mais également au sein d'une population donnée, ont été révélées. Par exemple, la différence à chaque point de la tête entre des têtes a été calculée. Les statistiques en trois dimensions ont aussi permis de mettre en évidence l'asymétrie de la tête. La méthode de création de modèles anthropométriques est plus adaptée à nos applications que les méthodes dans la littérature. L'analyse en trois dimensions permet d'obtenir des résultats qui ne sont pas visibles par les analyses 1D. Les connaissances acquises par cette étude sont utilisées pour la conception de différents produits vendus dans les magasins DECATHLON à travers le monde
Optimisation multi-objectif sous incertitudes de phénomènes de thermique transitoire by Jonathan Guerra( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

This work aims at solving multi-objective optimization problems in the presence of uncertainties and costly numerical simulations. A validation is carried out on a transient thermal test case. First of all, we develop a multi-objective optimization algorithm based on kriging and requiring few calls to the objective functions. This approach is adapted to the distribution of the computations and favors the restitution of a regular approximation of the complete Pareto front. The optimization problem under uncertainties is then studied by considering the worst-case and probabilistic robustness measures. The superquantile integrates every event on which the output value is between the quantile and the worst case. However, it requires an important number of calls to the uncertain objective function to be accurately evaluated. Few methods give the possibility to approach the superquantile of the output distribution of costly functions. To this end, we have developed an estimator based on importance sampling and kriging. It enables to approach superquantiles with little error and using a limited number of samples. Moreover, the setting up of a coupling with the multi-objective algorithm allows to reuse some of those evaluations. In the last part, we build spatio-temporal surrogate models capable of predicting non-linear, dynamic and long-term in time phenomena by using few learning trajectories. The construction is based on recurrent neural networks and a construction facilitating the learning is proposed
Optimisation de dispositifs de contrôle actif pour des écoulements turbulents décollés by Jérémie Labroquère( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Les stratégies de contrôle d'écoulement, telles que le soufflage / aspiration, ont prouvé leur efficacité à modifier les caractéristiques d'écoulement à des fins diverses en cas de configurations usuellement simples. Pour étendre cette approche sur des cas industriels, la simulation de dispositifs à échelle réelle et l'optimisation des paramètres de contrôle s'avèrent nécessaires. L'objectif de cette thèse est de mettre en place une procédure d'optimisation pour résoudre cette catégorie de problèmes. Dans cette perspective, l'organisation de la thèse est divisé en trois parties. Tout d'abord, le développement et la validation d'un solveur d'écoulement turbulent compressible instationnaire, résolvant les équations de Navier-Stokes moyennées (RANS) dans le cadre d'une discrétisation mixte de type éléments finis / volumes finis (MEV) sont présentés. Une attention particulière est portée sur la mise en œuvre de modèles numériques de jet synthétique à l'aide de simulations sur une plaque plane. Le deuxième axe de la thèse décrit et valide la mise en œuvre d'une méthode d'optimisation globale basée sur un modèle réduit du type processus gaussien (GP), incluant une approche de filtrage d'erreurs numériques liées aux observations. Cette méthode EGO (Efficient Global Optimization), est validée sur des cas analytiques bruités 1D et 2D. Pour finir, l'optimisation de paramètres de contrôle de jet synthétique sur deux cas test pertinents pour les industriels : un profil d'aile NACA0015, avec objectif de maximiser la portance moyenne et une marche descendante avec objectif de minimiser la longueur de recirculation moyenne
Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension by Nicolas Lelièvre( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

Engineers increasingly use numerical model to replace the experimentations during the design of new products. With the increase of computer performance and numerical power, these models are more and more complex and time-consuming for a better representation of reality. In practice, optimization is very challenging when considering real mechanical problems since they exhibit uncertainties. Reliability is an interesting metric of the failure risks of design products due to uncertainties. The estimation of this metric, the failure probability, requires a high number of evaluations of the time-consuming model and thus becomes intractable in practice. To deal with this problem, surrogate modeling is used here and more specifically AK-based methods to enable the approximation of the physical model with much fewer time-consuming evaluations. The first objective of this thesis work is to discuss the mathematical formulations of design problems under uncertainties. This formulation has a considerable impact on the solution identified by the optimization during design process of new products. A definition of both concepts of reliability and robustness is also proposed. These works are presented in a publication in the international journal: Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). The second objective of this thesis is to propose a new AK-based method to estimate failure probabilities associated with rare events. This new method, named AK-MCSi, presents three enhancements of AK-MCS: (i) sequential Monte Carlo simulations to reduce the time associated with the evaluation of the surrogate model, (ii) a new stricter stopping criterion on learning evaluations to ensure the good classification of the Monte Carlo population and (iii) a multipoints enrichment permitting the parallelization of the evaluation of the time-consuming model. This work has been published in Structural Safety (Lelièvre, et al. 2018). The last objective of this thesis is to propose new AK-based methods to estimate the failure probability of a high-dimensional reliability problem, i.e. a problem defined by both a time-consuming model and a high number of input random variables. Two new methods, AK-HDMR1 and AK-PCA, are proposed to deal with this problem based on respectively a functional decomposition and a dimensional reduction technique. AK-HDMR1 has been submitted to Reliability Enginnering and Structural Safety on 1st October 2018
Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste. by Nicolas Durrande( )

1 edition published in 2011 in French and held by 1 WorldCat member library worldwide

Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale
Reliability Based Design Including Future Tests and Multi-Agent Approaches by Diane Villanueva( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

The initial stages of reliability-based design optimization involve the formulation of objective functions and constraints, and building a model to estimate the reliability of the design with quantified uncertainties. However, even experienced hands often overlook important objective functions and constraints that affect the design. In addition, uncertainty reduction measures, such as tests and redesign, are often not considered in reliability calculations during the initial stages. This research considers two areas that concern the design of engineering systems: 1) the trade-off of the effect of a test and post-test redesign on reliability and cost and 2) the search for multiple candidate designs as insurance against unforeseen faults in some designs. In this research, a methodology was developed to estimate the effect of a single future test and post-test redesign on reliability and cost. The methodology uses assumed distributions of computational and experimental errors with re-design rules to simulate alternative future test and redesign outcomes to form a probabilistic estimate of the reliability and cost for a given design. Further, it was explored how modeling a future test and redesign provides a company an opportunity to balance development costs versus performance by simultaneously designing the design and the post-test redesign rules during the initial design stage.The second area of this research considers the use of dynamic local surrogates, or surrogate-based agents, to locate multiple candidate designs. Surrogate-based global optimization algorithms often require search in multiple candidate regions of design space, expending most of the computation needed to define multiple alternate designs. Thus, focusing on solely locating the best design may be wasteful. We extended adaptive sampling surrogate techniques to locate multiple optima by building local surrogates in sub-regions of the design space to identify optima. The efficiency of this method was studied, and the method was compared to other surrogate-based optimization methods that aim to locate the global optimum using two two-dimensional test functions, a six-dimensional test function, and a five-dimensional engineering example
Utilisation des méthodes de Krigeage pour le dimensionnement en fatigue des structures éoliennes posées en mer. by Quentin Huchet( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The mechanical certification of wind turbine structures is required for the funding of newoffshore projects on the French coasts. In order to ensure a maximal safety level of installations,a series of structural analyzes are required by the certification bodies. Amongst all, thedamage based computations represent an important numerical effort for EDF. The presentedworks focus on the applicability and the performances of Kriging metamodels for the estimationof the lifetime cumulated damage of offshore wind turbine structures (AK-DA approach)and the damage based reliability assessment of new designs (AK-MCS/AK-DA coupling)
Quantification d'incertitudes aléatoires et épistémiques dans la prédiction d'instabilités aéroélastiques by Christian Thomas Nitschke( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The critical flutter velocity is an essential factor in aeronautic design because it caracterises the flight envelope outside which the aircraft risks to be destroyed. The goal of this thesis is the study of the impact of uncertainties of aleatory and epistemic origin on the linear stability limit of idealised aeroelastic configurations. First, a direct propagation problem of aleatory uncertainties related to manufacturing parameters of a rectangular plate wing made of a laminated composite material was considered. The representation of the material through the polar method alleviates the constraint of the high number of dimensions of the initial stochastic problem, which allows the use of polynomial chaos. However, the correlation which is introduced by this parametrisation requires an adaption of the polynomial basis. Finally, a machine learning algorithm is employed for the treatment of discontinuities in the modal behaviour of the aeroelastic instabilities. The second part of the thesis is about the quantification of modelling uncertainties of epistemic nature which are introduced in the aerodynamic operator. This work, which is conducted based on a Bayesian formalism, allows not only to establish model probabilities, but also to calibrate the model coefficients in a stochastic context in order to obtain robust predictions for the critical velocity. Finally, a combined study of the two types of uncertainty allows to improve the calibration process
Méthodes avancées d'optimisation par méta-modèles - Applicationà la performance des voiliers de compétition by Matthieu Sacher( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

Sailing yacht performance optimization is a difficult problem due to the high complexity of the mechanicalsystem (aero-elastic and hydrodynamic coupling) and the large number of parameters to optimize (sails, rigs, etc.).Despite the fact that sailboats optimization is empirical in most cases today, the numerical optimization approach is nowconsidered as possible because of the latest advances in physical models and computing power. However, these numericaloptimizations remain very expensive as each simulation usually requires solving a non-linear fluid-structure interactionproblem. Thus, the central objective of this thesis is to propose and to develop original methods aiming at minimizing thenumerical cost of sailing yacht performance optimization. The Efficient Global Optimization (EGO) is therefore appliedto solve various optimization problems. The original EGO method is extended to cases of optimization under constraints,including possible non computable points, using a classification-based approach. The use of multi-fidelity surrogates isalso adapted to the EGO method. The applications treated in this thesis concern the original optimization problems inwhich the performance is modeled experimentally and/or numerically. These various applications allow for the validationof the developments in optimization methods on real and complex problems, including fluid-structure interactionphenomena
Sensitivy analysis and graph-based methods for black-box functions with on application to sheet metal forming. by Jana Fruth( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

Le domaine général de la thèse est l'analyse de sensibilité de fonctions boîte noire. L'analyse de sensibilité étudie comment la variation d'une sortie peut être reliée à la variation des entrées. C'est un outil important dans la construction, l'analyse et l'optimisation des expériences numériques (computer experiments).Nous présentons tout d'abord l'indice d'interaction total, qui est utile pour le criblage d'interactions. Plusieurs méthodes d'estimation sont proposées. Leurs propriétés sont étudiées au plan théorique et par des simulations.Le chapitre suivant concerne l'analyse de sensibilité pour des modèles avec des entrées fonctionnelles et une sortie scalaire. Une approche séquentielle très économique est présentée, qui permet non seulement de retrouver la sensibilité de entrées fonctionnelles globalement, mais aussi d'identifier les régions d'intérêt dans leur domaine de définition.Un troisième concept est proposé, les support index functions, mesurant la sensibilité d'une entrée sur tout le support de sa loi de probabilité.Finalement les trois méthodes sont appliquées avec succès à l'analyse de sensibilité de modèles d'emboutissage
Analysis of Randomized Adaptive Algorithms for Black-Box Continuous Constrained Optimization by Asma Atamna( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

We investigate various aspects of adaptive randomized (or stochastic) algorithms for both constrained and unconstrained black-box continuous optimization. The first part of this thesis focuses on step-size adaptation in unconstrained optimization. We first present a methodology for assessing efficiently a step-size adaptation mechanism that consists in testing a given algorithm on a minimal set of functions, each reflecting a particular difficulty that an efficient step-size adaptation algorithm should overcome. We then benchmark two step-size adaptation mechanisms on the well-known BBOB noiseless testbed and compare their performance to the one of the state-of-the-art evolution strategy (ES), CMA-ES, with cumulative step-size adaptation. In the second part of this thesis, we investigate linear convergence of a (1 + 1)-ES and a general step-size adaptive randomized algorithm on a linearly constrained optimization problem, where an adaptive augmented Lagrangian approach is used to handle the constraints. To that end, we extend the Markov chain approach used to analyze randomized algorithms for unconstrained optimization to the constrained case. We prove that when the augmented Lagrangian associated to the problem, centered at the optimum and the corresponding Lagrange multipliers, is positive homogeneous of degree 2, then for algorithms enjoying some invariance properties, there exists an underlying homogeneous Markov chain whose stability (typically positivity and Harris-recurrence) leads to linear convergence to both the optimum and the corresponding Lagrange multipliers. We deduce linear convergence under the aforementioned stability assumptions by applying a law of large numbers for Markov chains. We also present a general framework to design an augmented-Lagrangian-based adaptive randomized algorithm for constrained optimization, from an adaptive randomized algorithm for unconstrained optimization
Least squares parameter estimation and the Levenberg-Marquardt algorithm : deterministic analysis, sensitivities and numerical experiments by Frédéric Guyon( Book )

1 edition published in 1999 in English and held by 1 WorldCat member library worldwide

The present paper is a unified presentation of least square parameter estimation using the Levenberg-Marquardt algorithm. In the first part of the paper, least squares minimization and minimum norm regularizing problems are introduced through their relation to the type of mapping performed by the model. Parameter estimate and model sensitivities are described. The second part of the paper is devoted to the analysis of the Levenberg-Marquardt algorithm. Proof of convergence to the minimum norm solution of linear least squares is given. The algorithm is interpreted as a semi-implicit method following the steepest slope line. It is proved that the steps taken by the Levenberg-Marquardt algorithm enable measuring parameter sensitivity and model curvatures at no extra cost. Numerical examples are given for linear and nonlinear models, including parameter identification of a material constitutive law
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.91 (from 0.81 for Optimizati ... to 1.00 for Optimizati ...)

Languages
English (14)

French (7)