論文の概要: Filtered Neural Galerkin model reduction schemes for efficient propagation of initial condition uncertainties in digital twins
- arxiv url: http://arxiv.org/abs/2511.00670v1
- Date: Sat, 01 Nov 2025 19:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.886424
- Title: Filtered Neural Galerkin model reduction schemes for efficient propagation of initial condition uncertainties in digital twins
- Title(参考訳): ディジタル双生児の初期状態不確かさの効率的な伝播のためのフィルタリングニューラル・ガレルキンモデル削減スキーム
- Authors: Zhiyang Ning, Benjamin Peherstorfer,
- Abstract要約: ディジタルツインの不確実性は、利用可能なデータを超えた信頼性と信頼性のある予測を可能にするために重要である。
還元解分布の平均と共分散を時間的に改善する還元型モデリング手法を提案する。
フィルタされたニューラルガレルキンスキームは,アンサンブルに基づく不確実性伝播に比べて1桁以上の高速化を実現する。
- 参考スコア(独自算出の注目度): 6.404680648480478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification in digital twins is critical to enable reliable and credible predictions beyond available data. A key challenge is that ensemble-based approaches can become prohibitively expensive when embedded in control and data assimilation loops in digital twins, even when reduced models are used. We introduce a reduced modeling approach that advances in time the mean and covariance of the reduced solution distribution induced by the initial condition uncertainties, which eliminates the need to maintain and propagate a costly ensemble of reduced solutions. The mean and covariance dynamics are obtained as a moment closure from Neural Galerkin schemes on pre-trained neural networks, which can be interpreted as filtered Neural Galerkin dynamics analogous to Gaussian filtering and the extended Kalman filter. Numerical experiments demonstrate that filtered Neural Galerkin schemes achieve more than one order of magnitude speedup compared to ensemble-based uncertainty propagation.
- Abstract(参考訳): ディジタル双生児の不確かさの定量化は、利用可能なデータを超えた信頼性と信頼性のある予測を可能にするために重要である。
重要な課題は、アンサンブルベースのアプローチが、デジタル双生児の制御とデータ同化ループに埋め込まれた場合、たとえモデルが縮小されたとしても、違法に高価になることである。
本研究では, 初期条件の不確実性に起因する解分布の平均と共分散を時間的に改善し, 還元解の維持・伝播を不要とする還元モデリング手法を提案する。
平均と共分散ダイナミクスは、事前学習されたニューラルネットワーク上のニューラル・ガレルキンスキームからモーメントクロージャとして得られ、ガウスフィルタや拡張カルマンフィルタに類似したニューラル・ガレルキンダイナミクスとして解釈できる。
数値実験により,フィルタされたニューラル・ガレルキンスキームは,アンサンブルに基づく不確実性伝播に比べて1桁以上の高速化を実現することが示された。
関連論文リスト
- PnP-DA: Towards Principled Plug-and-Play Integration of Variational Data Assimilation and Generative Models [0.1052166918701117]
地球系のモデリングは科学計算における根本的な課題である。
最も強力なAIや物理ベースの予測システムでさえ、徐々にエラーが蓄積される。
本稿では,背景予測に基づいて事前学習した事前条件を1つのフォワードパスで,軽量で勾配に基づく解析更新を置き換えるPlug-and-Playアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-08-01T05:19:19Z) - A Simple Approximate Bayesian Inference Neural Surrogate for Stochastic Petri Net Models [0.0]
後部分布フレームワークのニューラルネットワークに基づく近似を導入する。
我々のモデルは、Gilespie-simulated SPN realizations上で訓練された1D Convolutional Residual Networkを使用する。
20%の欠落事象を持つ合成SPNでは, RMSE = 0.108で速度関数係数を回復し, 従来のベイズ手法よりもかなり高速に動作する。
論文 参考訳(メタデータ) (2025-07-14T18:31:19Z) - Propagation of Chaos for Mean-Field Langevin Dynamics and its Application to Model Ensemble [36.19164064733151]
平均場ランゲヴィンダイナミクス (Mean-field Langevin dynamics, MFLD) は、2層ニューラルネットワークにおける雑音勾配勾配の平均場限界を導出した最適化手法である。
最近の研究は、有限粒子による近似誤差が時間的に均一であり、粒子数が増加するにつれて減少することを示している。
本稿では, 粒子近似項から正則化係数への指数的依存を除去する改良されたMFLDのPoC結果を確立する。
論文 参考訳(メタデータ) (2025-02-09T05:58:46Z) - A Tunable Despeckling Neural Network Stabilized via Diffusion Equation [15.996302571895045]
ニューラルネットワークの実際のデータへの適応性を判断するための基準として、Adrialversa攻撃を用いることができる。
本稿では,ニューラルネットワークブロックと拡散正則性ブロックを1つのネットワークにアンロールしてエンドツーエンドのトレーニングを行う,チューニング可能な正規化ニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T17:08:43Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Distributional Gradient Matching for Learning Uncertain Neural Dynamics
Models [38.17499046781131]
本稿では,数値積分ボトルネックを回避するため,不確実なニューラル・オーダを推定するための新しい手法を提案する。
我々のアルゴリズム - 分布勾配マッチング (DGM) は、よりスムーズなモデルと動的モデルを共同で訓練し、ワッサーシュタイン損失を最小化することでそれらの勾配と一致する。
数値積分に基づく従来の近似推論手法と比較して,我々の手法は訓練がより速く,これまで見つからなかった軌道の予測がより高速であり,ニューラルODEの文脈では,はるかに正確であることがわかった。
論文 参考訳(メタデータ) (2021-06-22T08:40:51Z) - Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization [42.125394498649015]
スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
論文 参考訳(メタデータ) (2021-02-05T16:39:42Z) - Non-intrusive reduced order modeling of poroelasticity of heterogeneous
media based on a discontinuous Galerkin approximation [0.0]
異種多孔質媒体における線形多弾性問題に対する非侵入的モデル還元フレームワークを提案する。
内部ペナルティ不連続ガレルキン法(DG法)を全順序解法として利用し,不連続性を扱う。
我々のフレームワークは、DGソリューションの妥当な近似を提供するが、かなり高速である。
論文 参考訳(メタデータ) (2021-01-28T04:21:06Z) - Asymptotic convergence rate of Dropout on shallow linear neural networks [0.0]
本研究では, 微小線形ニューラルネットワークに適用する場合に, ドロップアウトとドロップコネクションによって誘導される目的関数の収束度を解析する。
我々は、勾配流の局所収束証明と、そのデータ、レート確率、NNの幅に依存する速度のバウンダリを得る。
論文 参考訳(メタデータ) (2020-12-01T19:02:37Z) - Quantitative Propagation of Chaos for SGD in Wide Neural Networks [39.35545193410871]
本稿では,SGD(Gradient Descent)の連続時間動作の制限挙動について検討する。
本研究では, この連続時間力学によって定義される粒子系に対して, 異なるシナリオ下での「カオスの伝播」を示す。
最小化問題の暗黙的な正則化版に対応する2つの平均場限界を求める。
論文 参考訳(メタデータ) (2020-07-13T12:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。