論文の概要: Neural Control Variates
- arxiv url: http://arxiv.org/abs/2006.01524v2
- Date: Fri, 4 Sep 2020 06:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:04:19.147829
- Title: Neural Control Variates
- Title(参考訳): ニューラルコントロールの変動
- Authors: Thomas M\"uller, Fabrice Rousselle, Jan Nov\'ak, Alexander Keller
- Abstract要約: ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
- 参考スコア(独自算出の注目度): 71.42768823631918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose neural control variates (NCV) for unbiased variance reduction in
parametric Monte Carlo integration. So far, the core challenge of applying the
method of control variates has been finding a good approximation of the
integrand that is cheap to integrate. We show that a set of neural networks can
face that challenge: a normalizing flow that approximates the shape of the
integrand and another neural network that infers the solution of the integral
equation. We also propose to leverage a neural importance sampler to estimate
the difference between the original integrand and the learned control variate.
To optimize the resulting parametric estimator, we derive a theoretically
optimal, variance-minimizing loss function, and propose an alternative,
composite loss for stable online training in practice. When applied to light
transport simulation, neural control variates are capable of matching the
state-of-the-art performance of other unbiased approaches, while providing
means to develop more performant, practical solutions. Specifically, we show
that the learned light-field approximation is of sufficient quality for
high-order bounces, allowing us to omit the error correction and thereby
dramatically reduce the noise at the cost of negligible visible bias.
- Abstract(参考訳): パラメトリックモンテカルロ積分における偏り分散低減のためのニューラルコントロール変数(ncv)を提案する。
これまでのところ、制御変数の方法を適用することの核となる課題は、統合が安価であるインテグレードのよい近似を見つけることである。
インテグレードの形状を近似する正規化フローと、積分方程式の解を推論する別のニューラルネットワークである。
また,ニューラルネットワークを用いたインテグレートと学習制御のバラエトの違いを推定する手法を提案する。
パラメトリック推定器を最適化するために, 理論的に最適で分散最小の損失関数を導出し, オンライン学習を安定に行うための代替的複合損失を提案する。
光輸送シミュレーションに適用すると、ニューラルコントロール変数は、他のバイアスのないアプローチの最先端のパフォーマンスと一致し、より高性能で実用的なソリューションを開発する手段を提供する。
具体的には, 学習された光場近似は, 高次バウンスに対して十分な品質を有しており, 誤差補正を省略し, 可視バイアスを犠牲にしてノイズを劇的に低減できることを示す。
関連論文リスト
- A neural network approach for solving the Monge-Ampère equation with transport boundary condition [0.0]
本稿では,輸送境界条件でモンジュ・アンペア方程式を解くためのニューラルネットワークに基づく新しい手法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
論文 参考訳(メタデータ) (2024-10-25T11:54:00Z) - Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Error-Correcting Neural Networks for Two-Dimensional Curvature
Computation in the Level-Set Method [0.0]
本稿では,2次元曲率をレベルセット法で近似するための誤差ニューラルモデルに基づく手法を提案する。
我々の主な貢献は、需要に応じて機械学習操作を可能にする数値スキームに依存する、再設計されたハイブリッド・ソルバである。
論文 参考訳(メタデータ) (2022-01-22T05:14:40Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。