論文の概要: Geometric Integration for Neural Control Variates
- arxiv url: http://arxiv.org/abs/2509.15538v1
- Date: Fri, 19 Sep 2025 02:44:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.9636
- Title: Geometric Integration for Neural Control Variates
- Title(参考訳): ニューラルコントロール変数のための幾何学的統合
- Authors: Daniel Meister, Takahiro Harada,
- Abstract要約: 本稿では,この問題を2次元で解くために,計算幾何学の手法を用いた統合領域分割に基づく統合手法を提案する。
本手法と組み合わせた制御変数として解析的に利用できることを示し,光輸送シミュレーションの応用例を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Control variates are a variance-reduction technique for Monte Carlo integration. The principle involves approximating the integrand by a function that can be analytically integrated, and integrating using the Monte Carlo method only the residual difference between the integrand and the approximation, to obtain an unbiased estimate. Neural networks are universal approximators that could potentially be used as a control variate. However, the challenge lies in the analytic integration, which is not possible in general. In this manuscript, we study one of the simplest neural network models, the multilayered perceptron (MLP) with continuous piecewise linear activation functions, and its possible analytic integration. We propose an integration method based on integration domain subdivision, employing techniques from computational geometry to solve this problem in 2D. We demonstrate that an MLP can be used as a control variate in combination with our integration method, showing applications in the light transport simulation.
- Abstract(参考訳): 制御変数はモンテカルロ積分の分散還元手法である。
この原理は、解析的に積分できる関数によって積分を近似することを含み、モンテカルロ法を用いて積分と近似の間の残差のみを積分して、バイアスのない推定値を得る。
ニューラルネットワークは普遍的な近似器であり、制御変数として使用できる可能性がある。
しかし、その課題は解析的統合にあり、一般には不可能である。
本稿では、最も単純なニューラルネットワークモデルの一つとして、連続的な一方向線形活性化機能を持つ多層パーセプトロン(MLP)とその解析積分について研究する。
本稿では,この問題を2次元で解くために,計算幾何学の手法を用いた統合領域分割に基づく統合手法を提案する。
本手法と組み合わせて MLP を制御変数として用いることを実証し,光輸送シミュレーションの応用例を示した。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Fixed Integral Neural Networks [2.2118683064997273]
学習した関数の積分を$f$で表す方法を提案する。
これにより、ニューラルネットワークの正確な積分を計算し、制約されたニューラルネットワークをパラメータ化することができる。
また、多くのアプリケーションに必要な条件である正の$f$を制約する手法も導入する。
論文 参考訳(メタデータ) (2023-07-26T18:16:43Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - A Discrete Variational Derivation of Accelerated Methods in Optimization [68.8204255655161]
最適化のための異なる手法を導出できる変分法を導入する。
我々は1対1の対応において最適化手法の2つのファミリを導出する。
自律システムのシンプレクティシティの保存は、ここでは繊維のみに行われる。
論文 参考訳(メタデータ) (2021-06-04T20:21:53Z) - Learning Runge-Kutta Integration Schemes for ODE Simulation and
Identification [35.877707234293624]
統合関連コスト関数を最小化する統合スキームを学ぶための新しいフレームワークを提案する。
非線形方程式に対する学習に基づくアプローチの妥当性を実証する。
論文 参考訳(メタデータ) (2021-05-11T13:02:20Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。