WorldCat Identities

Picheny, Victor

Overview
Works: 14 works in 16 publications in 2 languages and 24 library holdings
Genres: Academic theses 
Roles: Author, Other, Opponent, Thesis advisor
Publication Timeline
.
Most widely held works by Victor Picheny
Construction and Efficient Implementation of Adaptive Objective-Based Designs of Experiments by Léticia Buslig( )

1 edition published in 2013 in English and held by 2 WorldCat member libraries worldwide

Méthodes d'apprentissage statistique pour la régression et l'optimisation globale de mesures de risque by Léonard Torossian( Book )

2 editions published in 2019 in French and held by 2 WorldCat member libraries worldwide

Cette thèse s'inscrit dans le contexte général de l'estimation et de l'optimisation de fonctions de type boîte noire dont la sortie est une variable aléatoire. Motivé par la nécessité de quantifier l'occurrence d'événements extrêmes dans des disciplines comme la médecine, l'agriculture ou la finance, dans cette thèse des indicateurs sur certaines propriétés de la distribution en sortie, comme la variance ou la taille des queues de dis- tribution, sont étudiés. De nombreux indicateurs, aussi connus sous le nom de mesure de risque, ont été proposés dans la littérature ces dernières années. Dans cette thèse nous concentrons notre intérêt sur les quantiles, CVaR et expectiles. Dans un premier temps, nous comparons les approches K-plus proches voisins, forêts aléatoires, régression dans les RKHS, régression par réseaux de neurones et régression par processus gaussiens pour l'estimation d'un quantile conditionnel d'une fonction boite noire. Puis, nous proposons l'utilisation d'un modèle de régression basé sur le couplage de deux processus gaussiens estimés par une méthode variationnelle. Nous montrons que ce modèle, ini- tialement développé pour la régression quantile, est facilement adaptable à la régression d'autres mesures de risque. Nous l'illustrons avec l'expectile. Dans un second temps, nous analysons le problème relatif à l'optimisation d'une mesure de risque. Nous proposons une approche générique inspirée de la littérature X-armed bandits, permettantde fournir un algorithme d'optimisation, ainsi qu'une borne supérieure sur le regret, adaptable au choix de la mesure de risque. L'applicabilité de cette approche est illustrée par l'optimisation d'un quantile ou d'une CVaR. Enfin, nous proposons des algorithmes d'optimisation utilisant des processus gaussiens associés aux stratégies UCB et Thompson sampling, notre objectif étant l'optimisation d'un quantile ou d'un expectile
Inferring large graphs using $$\ell _1$$ ℓ 1 -penalized likelihood by Magali Champion( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

Improving accuracy and compensating for uncertainty in surrogate modeling by Victor Picheny( Book )

2 editions published in 2009 in English and held by 2 WorldCat member libraries worldwide

ABSTRACT: In most engineering fields, numerical simulators are used to model complex phenomena and obtain high-fidelity analysis. Despite the growth of computer capabilities, such simulators are limited by their computational cost. Surrogate modeling is a popular method to limit the computational expense. It consists of replacing the expensive model by a simpler model (surrogate) fitted to a few chosen simulations at a set of points called a design of experiments (DoE). By definition, a surrogate model contains uncertainties, since it is an approximation to an unknown function. A surrogate inherits uncertainties from two main sources: uncertainty in the observations (when they are noisy), and uncertainty due to finite sample. One of the major challenges in surrogate modeling consists of controlling and compensating for these uncertainties. Two classical frameworks of surrogate application are used as a discussion thread for this research: constrained optimization and reliability analysis. In this work, we propose alternatives to compensate for the surrogate model errors in order to obtain safe predictions with minimal impact on the accuracy. The methods are based on different error estimation techniques, some based on statistical assumptions and some that are non-parametric. Their efficiency are analyzed for general prediction and for the approximation of reliability measures. We also propose two contributions to the field of design of experiments in order to minimize the uncertainty of surrogate models. Firstly, we address the issue of choosing the experiments when surrogates are used for reliability assessment and constrained optimization. Secondly, we propose global sampling strategies to answer the issue of allocating limited computational resource in the context of RBDO. All methods are supported by quantitative results on simple numerical examples and engineering applications
Interpretable sparse SIR for functional data by Victor Picheny( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

Modeling and optimization with Gaussian processes in reduced eigenbases by David Gaudrie( )

1 edition published in 2020 in English and held by 2 WorldCat member libraries worldwide

Multiobjective optimization using Gaussian process emulators via stepwise uncertainty reduction by Victor Picheny( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

A Bayesian optimization approach to find Nash equilibria by Victor Picheny( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

Correction to: Inferring large graphs using $$\ell _1}$$ ℓ 1 -penalized likelihood by Magali Champion( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

Targeting solutions in Bayesian multi-objective optimization: sequential and batch versions by David Gaudrie( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Comparison of Kriging-Based Methods for Simulation Optimization with Heterogeneous Noise by Hamed Jalali( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Many discrete simulation optimization techniques are unsuitable when the number of feasible solutions is large, or when the simulations are time-consuming. For problems with low dimensionality, Kriging-based algorithms may be used: in recent years, several algorithms have been proposed which extend the traditional Kriging-based methods (assuming deterministic outputs) to problems with noise. Our objective in this paper is to compare the relative performance of a number of these algorithms on a set of well-known test functions, assuming different patterns of heterogeneous noise. The conclusions and insights obtained may serve as a useful guideline for researchers aiming to apply Kriging-based methods to solve engineering and/or business problems, and may be useful in the development of future Kriging-based algorithms
Optimisation bayésienne sous contraintes et en grande dimension appliquée à la conception avion avant projet by Rémy Priem( )

1 edition published in 2020 in French and held by 1 WorldCat member library worldwide

De nos jours, la conception avant-projet en aéronautique repose majoritairement sur des modèlesnumériques faisant interagir de nombreuses disciplines visant à évaluer les performancesde l'avion. Ces disciplines, comme l'aérodynamique, la structure et la propulsion, sont connectéesentre elles afin de prendre en compte leurs interactions. Cela produit un processus d'évaluationdes performances de l'avion coûteux en temps de calcul. En effet, une évaluation peut prendre detrente secondes pour les modèles de basse fidélité jusqu'à plusieurs semaines pour les modèlesde plus haute fidélité. De plus, à cause de la multi-disciplinarité du processus et de la diversitédes outils de calcul, nous n'avons généralement pas accès aux propriétés ou au gradient de cettefonction de performance. En outre, chaque discipline utilise ses propres variables de conceptionet doit respecter des contraintes d'égalité ou d'inégalité qui sont souvent nombreuses et multimodales.On cherche finalement à trouver la meilleur configuration possible dans un espace deconception donné.Cette recherche peut se traduire mathématiquement par un problème d'optimisation boite noiresous contraintes d'inégalité et d'égalité, aussi connues comme contraintes mixtes, dépendantd'un grand nombre de variables de conception. De plus, les contraintes et la fonction objectivesont coûteuses à évaluer et leur régularité n'est pas connue. C'est pourquoi, on s'intéresseaux méthodes d'optimisations sans dérivées et particulièrement celles reposant sur les modèlesde substitution. Les méthodes d'optimisation Bayésienne, utilisant des processus gaussiens, sontnotamment étudiées car elles ont montré des convergences rapides sur des problèmes multimodaux.En effet, l'utilisation d'algorithmes d'optimisation évolutionnaire ou reposant sur le gradientn'est pas envisageable du fait du coût de calcul que cela implique : trop d'appels pour générerdes populations de points, ou pour approcher le gradient par différences finies.Cependant la méthode d'optimisation Bayésienne est classiquement utilisée pour des problèmesd'optimisation sans contrainte et de faible dimension. Des extensions ont été proposéespour prendre en compte ce verrou de manière partielle. D'une part, des méthodes d'optimisationont été introduites pour résoudre des problèmes d'optimisation à contraintes mixtes. Toutefois,aucune d'entre elles n'est adaptable à la grande dimension, aux problèmes multi-modaux et auxcontraintes mixtes. D'autre part, des méthodes d'optimisation ont été développées pour la grandedimension pouvant aller jusqu'aumillion de variables de conception. De même, ces méthodes nes'étendent que difficilement aux problèmes contraints à cause du temps de calcul qu'ils nécessitentou de leur caractère aléatoire.Une première partie de ce travail repose sur le développement d'un algorithme d'optimisationBayésienne résolvant les problèmes d'optimisation sans contrainte en grande dimension. Il reposesur une stratégie d'apprentissage adaptatif d'un sous-espace linéaire réalisée conjointementà l'optimisation. Ce sous-espace linéaire est ensuite utilisé pour réaliser l'optimisation. Cette méthode a été testée sur des cas tests académiques.Une deuxième partie de ce travail traite du développement d'un algorithme d'optimisationBayésienne pour résoudre les problèmes d'optimisation multi-modaux sous contraintes mixtes. Ila été comparé aux algorithmes de la littérature de manière intensive sur une grande batterie detests académiques.Finalement, on a confronté le second algorithme à deux cas tests aéronautiques. Le premiercas test est une configuration classique d'avion moyen-courrier à propulsion hybride électriquedéveloppé par l'ONERA et l'ISAE-SUPAERO. Le second cas test est une configuration classiqued'avion d'affaire développée par Bombardier Aviation. Ce cas test repose sur une optimisationà deux niveaux de fidélité
Bayesian optimization under mixed constraints with a slack-variable augmented Lagrangian by Victor Picheny( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Méthodes stochastiques de modélisation de données : application à la reconstruction de données non régulières. by Leticia Buslig( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.95 (from 0.81 for Improving ... to 0.99 for Méthodes ...)

Languages
English (12)

French (4)