論文の概要: MCMC Informed Neural Emulators for Uncertainty Quantification in Dynamical Systems
- arxiv url: http://arxiv.org/abs/2603.10987v1
- Date: Wed, 11 Mar 2026 17:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.073993
- Title: MCMC Informed Neural Emulators for Uncertainty Quantification in Dynamical Systems
- Title(参考訳): 力学系における不確かさ定量のためのMCMCインフォームニューラルエミュレータ
- Authors: Heikki Haario, Zhi-Song Liu, Martin Simon, Hendrik Weichel,
- Abstract要約: パラメトリック不確実性定量化は、モデルパラメータの正確な事前分布が可能であると仮定して、トレーニングに含めることができる。
本稿では,モデルパラメータの直接スクリーニングやランダムサンプリングが,非物理パラメータ値のトレーニング時間と評価に繋がる,共通の逆の状況について検討する。
我々の解決策は、不確実な定量化をネットワークアーキテクチャから切り離すことです。
- 参考スコア(独自算出の注目度): 8.206008652536982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are a commonly used approach to replace physical models with computationally cheap surrogates. Parametric uncertainty quantification can be included in training, assuming that an accurate prior distribution of the model parameters is available. Here we study the common opposite situation, where direct screening or random sampling of model parameters leads to exhaustive training times and evaluations at unphysical parameter values. Our solution is to decouple uncertainty quantification from network architecture. Instead of sampling network weights, we introduce the model-parameter distribution as an input to network training via Markov chain Monte Carlo (MCMC). In this way, the surrogate achieves the same uncertainty quantification as the underlying physical model, but with substantially reduced computation time. The approach is fully agnostic with respect to the neural network choice. In our examples, we present a quantile emulator for prediction and a novel autoencoder-based ODE network emulator that can flexibly estimate different trajectory paths corresponding to different ODE model parameters. Moreover, we present a mathematical analysis that provides a transparent way to relate potential performance loss to measurable distribution mismatch.
- Abstract(参考訳): ニューラルネットワークは、物理モデルを計算的に安価なサロゲートに置き換えるための一般的なアプローチである。
パラメトリック不確実性定量化は、モデルパラメータの正確な事前分布が可能であると仮定して、トレーニングに含めることができる。
本稿では,モデルパラメータの直接スクリーニングやランダムサンプリングが,非物理パラメータ値のトレーニング時間と評価に繋がる,共通の逆の状況について検討する。
我々の解決策は、不確実な定量化をネットワークアーキテクチャから切り離すことです。
ネットワーク重みをサンプリングする代わりに,マルコフ連鎖モンテカルロ(MCMC)によるネットワークトレーニングへの入力として,モデルパラメータ分布を導入する。
このようにして、サロゲートは基礎となる物理モデルと同じ不確かさの定量化を達成するが、計算時間を大幅に短縮する。
このアプローチは、ニューラルネットワークの選択に関して、完全に非依存である。
本稿では、予測のための量子エミュレータと、異なるODEモデルパラメータに対応する異なる軌道経路を柔軟に推定できるオートエンコーダベースの新しいODEネットワークエミュレータを提案する。
さらに,評価可能な分布ミスマッチに潜在的な性能損失を関連付けるための透過的な方法を提供する数学的解析を提案する。
関連論文リスト
- On Feynman--Kac training of partial Bayesian neural networks [1.6474447977095783]
部分ベイズニューラルネットワーク(pBNN)は、完全なベイズニューラルネットワークと競合することが示されている。
本稿では,Feynman-Kacモデルのシミュレーションとして,pBNNのトレーニングを定式化した効率的なサンプリングベーストレーニング戦略を提案する。
提案手法は, 予測性能において, 技術状況よりも優れることを示す。
論文 参考訳(メタデータ) (2023-10-30T15:03:15Z) - End-to-End Reinforcement Learning of Koopman Models for Economic Nonlinear Model Predictive Control [45.84205238554709]
本研究では, (e)NMPCの一部として最適性能を示すために, Koopman シュロゲートモデルの強化学習法を提案する。
エンドツーエンドトレーニングモデルは,(e)NMPCにおけるシステム識別を用いてトレーニングしたモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-03T10:21:53Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Cubature Kalman Filter Based Training of Hybrid Differential Equation
Recurrent Neural Network Physiological Dynamic Models [13.637931956861758]
ニューラルネットワーク近似を用いて、未知の常微分方程式を既知のODEで近似する方法を示す。
その結果、このRBSEによるNNパラメータのトレーニングは、バックプロパゲーションによるニューラルネットワークのトレーニングよりも優れた結果(測定/状態推定精度)が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-12T15:38:13Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Conditionally Parameterized, Discretization-Aware Neural Networks for
Mesh-Based Modeling of Physical Systems [0.0]
入力パラメータのトレーニング可能な関数を用いて条件パラメトリゼーションの考え方を一般化する。
条件パラメータ化ネットワークは従来のネットワークに比べて優れた性能を示すことを示す。
CP-GNetと呼ばれるネットワークアーキテクチャも、メッシュ上のフローのスタンドアロン予測に反応可能な最初のディープラーニングモデルとして提案されている。
論文 参考訳(メタデータ) (2021-09-15T20:21:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。