論文の概要: Efficient reconstruction of multidimensional random field models with heterogeneous data using stochastic neural networks
- arxiv url: http://arxiv.org/abs/2511.13977v1
- Date: Mon, 17 Nov 2025 23:13:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.831764
- Title: Efficient reconstruction of multidimensional random field models with heterogeneous data using stochastic neural networks
- Title(参考訳): 確率的ニューラルネットワークを用いた不均一データを用いた多次元ランダム場モデルの効率的な再構成
- Authors: Mingtao Xia, Qijing Shen,
- Abstract要約: ニューラルネットワークのトレーニングにおいて,多次元ランダム場モデル再構成のための一般化誤差を限られた数のトレーニングデータで証明する。
この結果から,ノイズが次元にわたって不均一である場合,一般化誤差の収束速度はモデル次元に比例しない可能性が示唆された。
We show that our Wasserstein-distance approach can successfully training neural network to learn multidimensional uncertainty models。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we analyze the scalability of a recent Wasserstein-distance approach for training stochastic neural networks (SNNs) to reconstruct multidimensional random field models. We prove a generalization error bound for reconstructing multidimensional random field models on training stochastic neural networks with a limited number of training data. Our results indicate that when noise is heterogeneous across dimensions, the convergence rate of the generalization error may not depend explicitly on the model's dimensionality, partially alleviating the "curse of dimensionality" for learning multidimensional random field models from a finite number of data points. Additionally, we improve the previous Wasserstein-distance SNN training approach and showcase the robustness of the SNN. Through numerical experiments on different multidimensional uncertainty quantification tasks, we show that our Wasserstein-distance approach can successfully train stochastic neural networks to learn multidimensional uncertainty models.
- Abstract(参考訳): 本稿では、確率的ニューラルネットワーク(SNN)を訓練し、多次元ランダム場モデルを再構成するための最近のワッサーシュタイン距離アプローチのスケーラビリティについて分析する。
学習データ数に制限のある確率的ニューラルネットワークにおいて,多次元ランダム場モデルを再構成するための一般化誤差を証明した。
以上の結果から, 一般化誤差の収束速度は, 有限個のデータ点から多次元のランダム場モデルを学習するための「次元の曲率」を部分的に緩和し, モデル次元に明示的に依存しない可能性が示唆された。
さらに,従来のWasserstein-Distance SNNトレーニング手法を改良し,SNNの堅牢性を示す。
異なる多次元不確実性定量化タスクに関する数値実験を通じて、我々のワッサーシュタイン距離法が確率的ニューラルネットワークを学習し、多次元不確実性モデルを学習することに成功した。
関連論文リスト
- A generalized Wasserstein-2 distance approach for efficient reconstruction of random field models using stochastic neural networks [0.0]
ニューラルネットワークは,非制限条件下でのワッサーシュタイン2距離距離のランダム場モデルを再構成可能であることを証明した。
このニューラルネットワークは、提案した一般化された局所的なWasserstein-2損失関数を最小化することにより、効率的に訓練することができる。
論文 参考訳(メタデータ) (2025-07-07T15:53:13Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - On Feynman--Kac training of partial Bayesian neural networks [1.6474447977095783]
部分ベイズニューラルネットワーク(pBNN)は、完全なベイズニューラルネットワークと競合することが示されている。
本稿では,Feynman-Kacモデルのシミュレーションとして,pBNNのトレーニングを定式化した効率的なサンプリングベーストレーニング戦略を提案する。
提案手法は, 予測性能において, 技術状況よりも優れることを示す。
論文 参考訳(メタデータ) (2023-10-30T15:03:15Z) - Generative Neural Fields by Mixtures of Neural Implicit Functions [43.27461391283186]
本稿では,暗黙的ベースネットワークの線形結合によって表現される生成的ニューラルネットワークを学習するための新しいアプローチを提案する。
提案アルゴリズムは,メタラーニングや自動デコーディングのパラダイムを採用することにより,暗黙のニューラルネットワーク表現とその係数を潜在空間で学習する。
論文 参考訳(メタデータ) (2023-10-30T11:41:41Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。