WorldCat Identities

Holzschuch, Nicolas

Overview
Works: 16 works in 23 publications in 2 languages and 60 library holdings
Genres: Conference papers and proceedings 
Roles: Thesis advisor, Opponent, Other, Author
Publication Timeline
.
Most widely held works by Nicolas Holzschuch
Rendering techniques 2007 : Eurographics Symposium on Rendering, Grenoble, France, June 25-27, 2007 by Eurographics Symposium on Rendering( )

3 editions published in 2007 in English and held by 34 WorldCat member libraries worldwide

Le contrôle de l'erreur dans la méthode de radiosité hiérarchique by Nicolas Holzschuch( Book )

4 editions published in 1996 in French and held by 4 WorldCat member libraries worldwide

Nous présentons ici plusieurs améliorations d'un algorithme de modélisation de l'éclairage, la méthode de radiosité. Pour commencer, une analyse détaillée de la méthode de radiosité hiérarchique permet de souligner ses points faibles et de mettre en évidence deux améliorations simples : une évaluation paresseuse des interactions entre les objets, et un nouveau critère de raffinement qui élimine en grande partie les raffinements inutiles. Un bref rappel des propriétés des fonctions de plusieurs variables et de leurs dérivées suit, qui permet d'abord de déduire une réécriture de l'expression de la radiosité, d'où un calcul numérique plus précis. Les méthodes d'estimation de l'erreur produite au cours du processus de modélisation de la lumière sont introduites. Nous voyons alors comment les propriétés de concavité de la fonction de radiosité permettent , grâce au calcul des dérivées successives de la radiosité , un contrôle complet de l'erreur commise dans la modélisation des interactions entre les objets, et donc un encadrement précis de la radiosité. Nous présentons un critère de raffinement basé sur cette modélisation des interactions, et un algorithme complet de radiosité hiérarchique intégrant ce critère de raffinement, et donc permettant un contrôle de l'erreur commise sur la radiosité au cours de la résolution. Finalement, nous présentons les méthodes de calcul pratique des dérivées successives de la radiosité (gradient et Hessien) dans le cas d'un émetteur constant sans obstacles tout d'abord, puis dans le cas d'un émetteur constant en présence d'obstacles et dans le cas d'un émetteur sur lequel la radiosité varie de façon linéaire
Représentations efficaces pour les réflectances mesurées : modélisation et édition by Alban Fichet( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

L'informatique graphique a prouvé son utilité dans de nombreux domaines. Du prototypage industriel en passant par les loisirs avec le cinéma ou le jeu vidéo ou encore pour l'archivage du patrimoine historique. Elle permet la création d'image à partir de scènes virtuelles. L'un des objectifs de l'informatique graphique est la génération de rendus photo-réalistes. Une part importante est due à la fidélité des modèles de matériaux. Ainsi, leur étude ainsi que celle des réflectances est capitale.Les matériaux mesurés ont pris de l'importance en informatique graphique. Ils sont efficaces pour la représentation de matériaux homogènes. Cependant, pour les matériaux avec une variation structurelle spatiale, leur numérisation, utilisation pour le rendu, stockage et édition révèle de nombreuses difficultés. Cette thèse se propose de présenter des méthodes pour le traitement et l'édition de tels matériaux.Nous proposons une technique pour l'acquisition rapide de matériaux anisotropes avec variation spatiale à partir d'un nombre restreint d'illuminations et avec un point de vue fixe. Cette méthode est adaptée pour des mesures ne requérant pas une fidélité critique. Alors que d'autres techniques nécessitent un système de mesure couteux et une durée d'acquisition importante, notre technique permet d'obtenir un point de départ pour l'édition à partir de paramètres issus de matériaux réels.Ensuite, nous proposons une procédure pour l'approximation de données mesurées par une fonction analytique. Elle permet de réduire significativement l'emprunte mémoire requise par le stockage des données mesurées tout en proposant l'édition aisée du matériau ainsi représenté. Il est aussi possible de modifier la distribution spatiale des matériaux et ainsi remplacer des matériaux d'une surface par ceux d'une autre.Enfin, nous proposons une méthode permettant l'utiliser une partie des propriétés de réflectances de matériaux pour les fusionner avec celles d'un second. Cette méthode permet aussi l'édition des deux caractéristiques indépendamment l'une de l'autre de façon intuitive
Apparence matérielle : représentation et rendu photo-réaliste by Mahdi Mohammadbagher( )

1 edition published in 2012 in French and held by 2 WorldCat member libraries worldwide

This thesis presents some advances in efficient representation of material appearance in a lighting simulation. The scope of this thesis is two-fold: an interactive shading algorithm to render measured reflectance with dynamic geometry using frequency analysis of light transport and hierarchical shading and up-sampling in deferred shading context, and a new normal distribution function for the Cook-Torrance micro-facet BRDF model, along with a new shadowing and masking function and a generalization of Schlick's approximation of the Fresnel term. In the first part, we introduce a real-time frequency analysis of light transport framework that allows us to estimate the bandwidth and variance of the shading integrand. The bandwidth and variance are a function of frequencies in the illumination, distance traveled by light, BRDF and texture, and the geometry configuration (curvature). We use this information to under-sample the image, and also use an adaptive number of samples for shading. We devise a single-pass hierarchical shading and up-sampling scheme to assemble an image out of the sparsely shaded image pixels. We extend our interactive technique to use pre-convolved shading for real-time performance. We also take advantage of the bandwidth information to perform multi-sample anti-aliasing in deferred shading by subsampling only a small portion of image pixels whose bandwidth is smaller than 1 pixel^-1. In the second part, we propose a new distribution function for the Cook-Torrance micro-facet BRDF, based on our observations on the reflectance measurements. We isolate the distribution components of the reflectance data and directly observe that existing distribution functions are insufficient. Then we devise the Shifted Gamma Distribution (SGD) fitting more accurately to the data. We derive the shadowing and masking function from the distribution. We observe that not all materials have the Fresnel behavior expected by Schlick's approximation. Hence, we generalize the Schlick's approximation to more accurately fit the model to the measurements. We introduce a two-step fitting approach, that fits each RGB channel separately -- accounting for wave-length dependent effects. We show that our shading model outperforms existing models and accurately represents a wider range of materials from diffuse to glossy and highly specular materials
Le contrôle de l'erreur dans la méthode de radiosité hiérarchique by Nicolas Holzschuch( )

1 edition published in 2004 in French and held by 2 WorldCat member libraries worldwide

Nous présentons ici plusieurs améliorations d'un algorithme de modélisation de l'éclairage, la méthode de radiosité. Pour commencer, une analyse détaillée de la méthode de radiosité hiérarchique permet de souligner ses points faibles et de mettre en évidence deux améliorations simples : une évaluation paresseuse des interactions entre les objets, et un nouveau critère de raffinement qui élimine en grande partie les raffinements inutiles. Un bref rappel des propriétés des fonctions de plusieurs variables et de leurs dérivées suit, qui permet d'abord de déduire une réécriture de l'expression de la radiosité, d'où un calcul numérique plus précis. Les méthodes d'estimation de l'erreur produite au cours du processus de modélisation de la lumière sont introduites. Nous voyons alors comment les propriétés de concavité de la fonction de radiosité permettent -- grâce au calcul des dérivées successives de la radiosité -- un contrôle complet de l'erreur commise dans la modélisation des interactions entre les objets, et donc un encadrement précis de la radiosité. Nous présentons un critère de raffinement basé sur cette modélisation des interactions, et un algorithme complet de radiosité hiérarchique intégrant ce critère de raffinement, et donc permettant un contrôle de l'erreur commise sur la radiosité au cours de la résolution. Finalement, nous présentons les méthodes de calcul pratique des dérivées successives de la radiosité (gradient et Hessien) dans le cas d'un émetteur constant sans obstacles tout d'abord, puis dans le cas d'un émetteur constant en présence d'obstacles et dans le cas d'un émetteur sur lequel la radiosité varie de façon linéaire
Rendu réaliste de matériaux complexes by Charles de Rousiers( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

Reproduire efficacement l'apparence réaliste des matériaux est un problème crucial pour la synthèse d'images réalistes dans les productions cinématographiques et les jeux vidéo. Outre le transport global de la lumière, le réalisme d'une image de synthèse passe avant tout par une modélisation correcte du transport local, c'est-à-dire les interactions entre lumière et matière. La modélisation de ces interactions donne lieu à une grande variété de modèles de réflectance. Nous proposons une classification de ces modèles en s'appuyant sur l'échelle des détails géométriques abstraits. À partir de cette classification, nous étudions des modèles de réflectance particuliers : * un modèle de transmission pour les surfaces transparentes et rugueuses, tels que le verre dépoli. Son efficacité permet une utilisation au sein applications temps-réel * une analyse et une modélisation du transport de la lumière dans les matériaux composés d'agrégats de particules * une base alternative aux harmoniques sphériques pour représenter et illuminer efficacement les matériaux mesurés ayant une réflectance à basses fréquences. Ces modèles permettent une abstraction efficace des interactions locales tout en conservant la reproduction de leurs effets réalistes
Analyse fréquencielle du transport de la lumière : de la théorie aux applications by Laurent Belcour( )

1 edition published in 2012 in French and held by 2 WorldCat member libraries worldwide

Cette thèse présente une extension de l'analyse fréquentielle des light-fields locaux de Durand et al. [2005]. Nous proposons l'étude de phénomènes de transport radiatif tels que la réfraction par des surfaces non-spéculaires, les effets de flou de bougé et la diffusion de la lumière dans les volumes tels que les nuages. Nous proposons de plus une extension de l'état de l'art en analyse fréquentielle avec l'ajout de l'étude de l'occlusion non-planaire, des SVBRDFs anisotropes ainsi que les systèmes de lentilles. Dans ce cadre, nous présentons l'analyse de la matrice covariance de l'amplitude du spectre, un outil compact d'analyse et compatible avec les méthodes statistiques d'intégrations. Nous montrons l'utilité de cet outil avec différentes applications: le sampling adaptatif avec reconstruction des effets de flou de profondeur et de bougé, l'estimation de noyaux de reconstructions pour l'algorithme de photon mapping et le sampling adaptatif des effets volumiques
Multi-scale Feature-Preserving Smoothing of Images and Volumes on GPU by Nassim Jibai( )

1 edition published in 2012 in French and held by 2 WorldCat member libraries worldwide

Two-dimensional images and three-dimensional volumes have become a staple ingredient of our artistic, cultural, and scientific appetite. Images capture and immortalize an instance such as natural scenes, through a photograph camera. Moreover, they can capture details inside biological subjects through the use of CT (computer tomography) scans, X-Rays, ultrasound, etc. Three-dimensional volumes of objects are also of high interest in medical imaging, engineering, and analyzing cultural heritage. They are produced using tomographic reconstruction, a technique that combine a large series of 2D scans captured from multiple views. Typically, penetrative radiation is used to obtain each 2D scan: X-Rays for CT scans, radio-frequency waves for MRI (magnetic resonance imaging), electron-positron annihilation for PET scans, etc. Unfortunately, their acquisition is influenced by noise caused by different factors. Noise in two-dimensional images could be caused by low-light illumination, electronic defects, low-dose of radiation, and a mispositioning tool or object. Noise in three-dimensional volumes also come from a variety of sources: the limited number of views, lack of captor sensitivity, high contrasts, the reconstruction algorithms, etc. The constraint that data acquisition be noiseless is unrealistic. It is desirable to reduce, or eliminate, noise at the earliest stage in the application. However, removing noise while preserving the sharp features of an image or volume object remains a challenging task. We propose a multi-scale method to smooth 2D images and 3D tomographic data while preserving features at a specified scale. Our algorithm is controlled using a single user parameter - the minimum scale of features to be preserved. Any variation that is smaller than the specified scale is treated as noise and smoothed, while discontinuities such as corners, edges and detail at a larger scale are preserved. We demonstrate that our smoothed data produces clean images and clean contour surfaces of volumes using standard surface-extraction algorithms. In addition to, we compare our results with results of previous approaches. Our method is inspired by anisotropic diffusion. We compute our diffusion tensors from the local continuous histograms of gradients around each pixel in image
Rendu narratif en synthèse d'images by Thierry Stein( Book )

2 editions published in 2010 in French and held by 2 WorldCat member libraries worldwide

Créer une séquence d´images qui résume une animation est une tache effectuée dans de nombreux domaines, allant de la bande-dessinée à la conception de schémas d´assemblage. Une telle représentation repose sur la projection de données 3D plus temps vers un support 2D, et induit inévitablement une perte d´informations. Compenser cette perte relève encore aujourd´hui du traitement au cas par cas, et est très généralement fait de manière manuelle. L´objectif de cette thèse est de développer des algorithmes automatisant cette tache et restant les plus généraux possible. Dans ce contexte, nous nous sommes intéressés à la visualisation en images d´animations de particules, en essayant d´identifier puis d'illustrer leurs mouvements généraux. Une animation se déroulant généralement dans un décor géométrique spécifique, nous avons proposé une méthode pour afficher ce décor en tenant compte du résumé de l'animation. Enfin, afin d´enrichir nos images d´informations textuelles ou contextuelles, nous avons étudié le problème de l´annotation dynamique d´une scène 3D et les difficultés de cohérence temporelle soulevées
Réflexions spéculaires en temps interactif dans les scènes dynamiques by David Roger( Book )

2 editions published in 2008 in French and held by 2 WorldCat member libraries worldwide

Les réflexions spéculaires et brillantes sont très importantes pour notre perception des scèenes 3D, car elles fournissent des informations sur la forme et la matière des objets, ainsi que de nouveaux angles de vue. Elles sont souvent rendues avec peu de préecision en utilisant des cartes d?environnement. Nous avons créé des algorithmes plus préccis, sous les contraintes du rendu interactif et des scènes dynamiques, pour permettre des applications comme les jeux vidéos.Nous proposons deux méthodes pour les réflexions spéculaires. La première est basée sur la rasterization et calcule la position du reflet de chaque sommet de la scène, en optimisant itérativement la longueur des chemins lumineux. Ensuite, le fragment shader interpole lin´eairement entre les sommets. Cette méthode représente les effets de parallaxe ou dépendants du point de vue, et est mieux adaptée aux réflecteurs lisses et convexes. La deuxième est un algorithme de lancer de rayons sur GPU qui utilise une hiérarchie de rayons : les rayons primaires sont rendus par rasterization, puis les rayons secondaires sont regroup´es hiérarchiquement en cônes pour former un quad-tree qui est reconstruit à chaque image. La hiérarchie de rayons est ensuite intersectée avec tous les triangles de la scène en parallèle. Cette méthode est légèrement plus lente, mais plus générale et plus précise. Nous avons étendu cet algorithme de lancer de rayons en un lancer de cônes capable de modéliser les réflexions brillantes et un anti-crénelage continu. Nos techniques de lancer de rayons et de cones ont été implémentées dans le modèle de programmation du traitement de flux, pour une bonne efficacité de la carte graphique. Dans ce contexte, nous avons développé un nouvel algorithme hiérarchique de réduction de flux qui est une étape clé de beaucoup d?autres applications et qui a une meilleure complexité asymptotique que les méthodes précédentes
Analyse spatiale et spectrale des motifs d'échantillonnage pour l'intégration Monte Carlo by Adrien Pilleboue( )

1 edition published in 2015 in French and held by 1 WorldCat member library worldwide

Sampling is a key step in rendering pipeline. It allows the integration of light arriving to a point of the scene in order to calculate its color. Monte Carlo integration is generally the most used method to approximate that integral by choosing a finite number of samples. Reducing the bias and the variance of Monte Carlo integration has become one of the most important issues in realistic rendering. The solutions found are based on smartly positioning the samples points in a way that maximizes the uniformity of the distribution while avoiding the regularities. From this point of view, the 80s were a turning point in this domain, as new stochastic methods appeared. With a better comprehension of links between Monte Carlo integration and sampling, these methods allow the reduction of noise and of variance in rendered images. In parallel, the complexity of sampling methods has considerably enhanced, enabling to have fast as well as good quality methods. However, these improvements have been done by trial and error focusing on two major points : the improvement of sampling pattern uniformity, and the suppression of regularities. Even though there exists some theories allowing to bound the error of the integration, they are usually limited, and even inapplicable in computer graphics. This thesis proposes to gather the analysis tools of sampling patterns and to connect them together. These tools can characterize spatial properties such as the distribution of distances between points, as well as spectral properties via Fourier transformation. Secondly, we have used these tools in order to give a simple expression of the bias and the variance for Monte Carlo integration ; this is done by using prerequisites compatible with image rendering. Finally, we present a theoretical toolbox allowing to determine the convergence speed of a sampling method from its spectral profile. This toolbox is used specifically to give indications about the design principles necessary for new sampling algorithms
Contrôle de l'apparence des matériaux anisotropes by Boris Raymond( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

In computer graphics, material appearance is a fundamental component of the final image quality. Many models have contributed to improve material appearance. Today, some materials remains hard to represent because of their complexity. Among them, anisotopic materials are especially complex and little studied. In this thesis, we propose a better comprehension of anisotropic materials providing a representation model and an editing tool to control their appearance. Our scratched material model is based on a light transport simulation in the micro-geometry of a scratch, preserves all the details and keeps an interactive rendering time. Our anisotropic reflections edition tool uses BRDF orientation fields to give the user the impression to draw or deform reflections directly on the surface
Anti-Aliased Low Discrepancy Samplers for Monte Carlo Estimators in Physically Based Rendering by Hélène Perrier( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

When you display a 3D object on a computer screen, we transform this 3D scene into a 2D image, which is a set of organized colored pixels. We call Rendering all the process that aims at finding the correct color to give those pixels. This is done by integrating all the light rays coming for every directions that the object's surface reflects back to the pixel, the whole being ponderated by a visibility function. Unfortunately, a computer can not compute an integrand. We therefore have two possibilities to solve this issue: We find an analytical expression to remove the integrand (statistic based strategy). Numerically approximate the equation by taking random samples in the integration domain and approximating the integrand value using Monte Carlo methods. Here we focused on numerical integration and sampling theory. Sampling is a fundamental part of numerical integration. A good sampler should generate points that cover the domain uniformly to prevent bias in the integration and, when used in Computer Graphics, the point set should not present any visible structure, otherwise this structure will appear as artifacts in the resulting image. Furthermore, a stochastic sampler should minimize the variance in integration to converge to a correct approximation using as few samples as possible. There exists many different samplers that we will regroup into two families: Blue Noise samplers, that have a low integration variance while generating unstructured point sets. The issue with those samplers is that they are often slow to generate a pointset. Low Discrepancy samplers, that minimize the variance in integration and are able to generate and enrich a point set very quickly. However, they present a lot of structural artifacts when used in Rendering. Our work aimed at developing hybriod samplers, that are both Blue Noise and Low Discrepancy
Sampling and Variance Analysis for Monte Carlo Integration in Spherical Domain by Gurprit Singh( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

This dissertation introduces a theoretical framework to study different sampling patterns in the spherical domain and their effects in the evaluation of global illumination integrals. Evaluating illumination (light transport) is one of the most essential aspect in image synthesis to achieve realism which involves solving multi-dimensional space integrals. Monte Carlo based numerical integration schemes are heavily employed to solve these high dimensional integrals. One of the most important aspect of any numerical integration method is sampling. The way samples are distributed on an integration domain can greatly affect the final result. For example, in images, the effects of various sampling patterns appear in the form of either structural artifacts or completely unstructured noise. In many cases, we may get completely false (biased) results due to the sampling pattern used in integration. The distribution of sampling patterns can be characterized using their Fourier power spectra. It is also possible to use the Fourier power spectrum as input, to generate the corresponding sample distribution. This further allows spectral control over the sample distributions. Since this spectral control allows tailoring new sampling patterns directly from the input Fourier power spectrum, it can be used to improve error in integration. However, a direct relation between the error in Monte Carlo integration and the sampling power spectrum is missing. In this work, we propose a variance formulation, that establishes a direct link between the variance in Monte Carlo integration and the power spectra of both the sampling pattern and the integrand involved. To derive our closed-form variance formulation, we use the notion of homogeneous sample distributions that allows expression of error in Monte Carlo integration, only in the form of variance. Based on our variance formulation, we develop an analysis tool that can be used to derive theoretical variance convergence rates of various state-of-the-art sampling patterns. Our analysis gives insights to design principles that can be used to tailor new sampling patterns based on the integrand
Photorealistic Surface Rendering with Microfacet Theory by Jonathan Dupuy( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale
Echantillonage d'importance des sources de lumières réalistes by Heqi Lu( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Realistic images can be rendered by simulating light transport with Monte Carlo techniques. The possibility to use realistic light sources for synthesizing images greatly contributes to their physical realism. Among existing models, the ones based on environment maps and light fields are attractive due to their ability to capture faithfully the far-field and near-field effects as well as their possibility of being acquired directly. Since acquired light sources have arbitrary frequencies and possibly high dimension (4D), using such light sources for realistic rendering leads to performance problems.In this thesis, we focus on how to balance the accuracy of the representation and the efficiency of the simulation. Our work relies on generating high quality samples from the input light sources for unbiased Monte Carlo estimation. In this thesis, we introduce three novel methods.The first one is to generate high quality samples efficiently from dynamic environment maps that are changing over time. We achieve this by introducing a GPU approach that generates light samples according to an approximation of the form factor and combines the samples from BRDF sampling for each pixel of a frame. Our method is accurate and efficient. Indeed, with only 256 samples per pixel, we achieve high quality results in real time at 1024 × 768 resolution. The second one is an adaptive sampling strategy for light field light sources (4D), we generate high quality samples efficiently by restricting conservatively the sampling area without reducing accuracy. With a GPU implementation and without any visibility computations, we achieve high quality results with 200 samples per pixel in real time at 1024 × 768 resolution. The performance is still interactive as long as the visibility is computed using our shadow map technique. We also provide a fully unbiased approach by replacing the visibility test with a offline CPU approach. Since light-based importance sampling is not very effective when the underlying material of the geometry is specular, we introduce a new balancing technique for Multiple Importance Sampling. This allows us to combine other sampling techniques with our light-based importance sampling. By minimizing the variance based on a second-order approximation, we are able to find good balancing between different sampling techniques without any prior knowledge. Our method is effective, since we actually reduce in average the variance for all of our test scenes with different light sources, visibility complexity, and materials. Our method is also efficient, by the fact that the overhead of our "black-box" approach is constant and represents 1% of the whole rendering process
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.63 (from 0.40 for Le contrô ... to 0.96 for Rendering ...)

Rendering techniques 2007 : Eurographics Symposium on Rendering, Grenoble, France, June 25-27, 2007
Covers
Languages
French (15)

English (8)