論文の概要: Training neural control variates using correlated configurations
- arxiv url: http://arxiv.org/abs/2505.07719v1
- Date: Mon, 12 May 2025 16:25:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.484864
- Title: Training neural control variates using correlated configurations
- Title(参考訳): 相関構成を用いた神経制御の訓練
- Authors: Hyunwoo Oh,
- Abstract要約: NCVはモンテカルロ (MC) シミュレーションにおいて分散低減のための強力なツールとして登場した。
マルコフ・チェイン・モンテカルロ(MCMC)が生成した自己相関サンプルは,基礎となる確率分布の構造に関する有用な情報を含む可能性がある。
これらの知見は、ニューラルネットワークのトレーニングにおけるMCMCデータの効率的な利用のための実用的なガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural control variates (NCVs) have emerged as a powerful tool for variance reduction in Monte Carlo (MC) simulations, particularly in high-dimensional problems where traditional control variates are difficult to construct analytically. By training neural networks to learn auxiliary functions correlated with the target observable, NCVs can significantly reduce estimator variance while preserving unbiasedness. However, a critical but often overlooked aspect of NCV training is the role of autocorrelated samples generated by Markov Chain Monte Carlo (MCMC). While such samples are typically discarded for error estimation due to their statistical redundancy, they may contain useful information about the structure of the underlying probability distribution that can benefit the training process. In this work, we systematically examine the effect of using correlated configurations in training neural control variates. We demonstrate, both conceptually and numerically, that training on correlated data can improve control variate performance, especially in settings with limited computational resources. Our analysis includes empirical results from $U(1)$ gauge theory and scalar field theory, illustrating when and how autocorrelated samples enhance NCV construction. These findings provide practical guidance for the efficient use of MCMC data in training neural networks.
- Abstract(参考訳): ニューラルコントロール変数(NCV)はモンテカルロ(MC)シミュレーションにおいて,特に従来の制御変数を解析的に構築することが困難な高次元問題において,分散低減のための強力なツールとして出現している。
ニューラルネットワークをトレーニングして、対象の可観測性と相関した補助関数を学習することにより、NCVは偏りを保ちながら推定値のばらつきを著しく低減することができる。
しかしながら、NCVトレーニングの重大な側面は、マルコフ・チェイン・モンテカルロ(MCMC)が生成した自己相関サンプルの役割である。
このようなサンプルは通常、統計的冗長性のために誤差推定のために廃棄されるが、これらのサンプルはトレーニングプロセスに有利な基礎となる確率分布の構造に関する有用な情報を含むかもしれない。
本研究では,ニューラルコントロール変数の学習において,相関構成を用いることによる効果を系統的に検討する。
我々は,特に限られた計算資源を持つ設定において,相関データに対するトレーニングが制御変動性能を向上させることを概念的にも数値的にも示している。
我々の分析は、U(1)$ゲージ理論とスカラー場理論の実証結果を含む。
これらの知見は、ニューラルネットワークのトレーニングにおけるMCMCデータの効率的な利用のための実用的なガイダンスを提供する。
関連論文リスト
- Canonical Correlation Guided Deep Neural Network [14.188285111418516]
深層ニューラルネットワーク(CCDNN)により実現可能な標準相関学習フレームワークを提案する。
提案手法では、最適化の定式化は相関を最大化するために制限されず、代わりに正規相関を制約として行う。
相関による冗長性を低減するために、冗長性フィルタを設計する。
論文 参考訳(メタデータ) (2024-09-28T16:08:44Z) - Exploring Information-Theoretic Metrics Associated with Neural Collapse in Supervised Training [14.9343236333741]
本稿では,教師あり学習のための分析ツールとして行列エントロピーを導入する。
ニューラルネットワークがニューラルネットワークに近づくと,行列エントロピーがデータ表現の情報量の変化を効果的に捉えていることが示される。
また、事前訓練されたモデルの微調整を最適化するために、クロスモデルアライメント(CMA)損失を提案する。
論文 参考訳(メタデータ) (2024-09-25T09:26:06Z) - Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model [38.79241114146971]
本稿では、量子位相の分類を訓練したニューラルネットワークの予測において、解釈可能性の手法が信頼を高める方法を示す。
特に, 複雑な分類問題において, 分配外分布の一般化を確実にできることを示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
論文 参考訳(メタデータ) (2024-06-14T13:24:32Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Dense Hebbian neural networks: a replica symmetric picture of
unsupervised learning [4.133728123207142]
我々は、監督なしで訓練された密集的で連想的なニューラルネットを考える。
本稿では,モンテカルロシミュレーションを用いて,その計算能力を解析的に,統計力学的手法を用いて,数値解析的に検討する。
論文 参考訳(メタデータ) (2022-11-25T12:40:06Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Statistical model-based evaluation of neural networks [74.10854783437351]
ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
論文 参考訳(メタデータ) (2020-11-18T00:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。