論文の概要: Uncertainty Propagation Networks for Neural Ordinary Differential Equations
- arxiv url: http://arxiv.org/abs/2508.16815v1
- Date: Fri, 22 Aug 2025 22:24:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.189792
- Title: Uncertainty Propagation Networks for Neural Ordinary Differential Equations
- Title(参考訳): ニューラル正規微分方程式の不確かさ伝播ネットワーク
- Authors: Hadi Jahanshahi, Zheng H. Zhu,
- Abstract要約: 不確実性伝播ネットワーク(UPN)は、不確実性定量化を連続時間モデリングに自然に組み込む神経微分方程式の新たなファミリーである。
このアーキテクチャは、離散化アーティファクトを使わずに非線形力学を通じて不確実性を効率的に伝播する。
実験結果は、不確実な定量化を伴う連続正規化フロー(CNFs)、よく校正された信頼区間を持つ時系列予測、安定系とカオス系のどちらにおいても頑健な軌道予測である。
- 参考スコア(独自算出の注目度): 3.53219160875623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Uncertainty Propagation Network (UPN), a novel family of neural differential equations that naturally incorporate uncertainty quantification into continuous-time modeling. Unlike existing neural ODEs that predict only state trajectories, UPN simultaneously model both state evolution and its associated uncertainty by parameterizing coupled differential equations for mean and covariance dynamics. The architecture efficiently propagates uncertainty through nonlinear dynamics without discretization artifacts by solving coupled ODEs for state and covariance evolution while enabling state-dependent, learnable process noise. The continuous-depth formulation adapts its evaluation strategy to each input's complexity, provides principled uncertainty quantification, and handles irregularly-sampled observations naturally. Experimental results demonstrate UPN's effectiveness across multiple domains: continuous normalizing flows (CNFs) with uncertainty quantification, time-series forecasting with well-calibrated confidence intervals, and robust trajectory prediction in both stable and chaotic dynamical systems.
- Abstract(参考訳): 本稿では,不確かさの定量化を連続時間モデルに自然に組み込むニューラル微分方程式の新たなファミリである不確実性伝播ネットワーク(UPN)を紹介する。
状態軌跡のみを予測する既存のニューラルODEとは異なり、UPNは平均と共分散ダイナミクスの結合微分方程式をパラメータ化することによって、状態の進化とその関連する不確かさを同時にモデル化する。
このアーキテクチャは、状態依存の学習可能なプロセスノイズを許容しつつ、状態と共分散の進化のための結合ODEを解き、離散化アーティファクトのない非線形力学を通して効率よく不確かさを伝播する。
連続深度定式化は、その評価戦略を各入力の複雑さに適応させ、原理化された不確実性定量化を提供し、不規則にサンプリングされた観察を自然に処理する。
実験結果は、不確実な定量化を伴う連続正規化フロー(CNFs)、よく校正された信頼区間を持つ時系列予測、安定系とカオス系のどちらにおいても頑健な軌道予測である。
関連論文リスト
- Latent-Variable Learning of SPDEs via Wiener Chaos [2.0901018134712297]
線形偏微分方程式(SPDE)の法則を観測から加法的ガウス強制で学習する問題について検討する。
提案手法はスペクトルガレルキン射影と乱れたウィナーカオス展開を組み合わせ、進化と強制領域を分離する。
これにより、無限次元決定論的SPDEは、潜時時間力学を管理するパラメタライズされた常微分方程式の有限系に還元される。
論文 参考訳(メタデータ) (2026-02-12T10:19:43Z) - Stochastic Deep Learning: A Probabilistic Framework for Modeling Uncertainty in Structured Temporal Data [0.0]
構造化データと時間的データを含む機械学習アプリケーションにおける不確実性を改善するために、微分方程式(SDE)を深層生成モデルと統合する新しいフレームワークを提案する。
このアプローチはLatent Differential Inference (SLDI)と呼ばれ、変分オートエンコーダの潜時空間にIt SDEを埋め込む。
SDEのドリフトと拡散の項はニューラルネットワークによってパラメータ化され、データ駆動推論と古典的時系列モデルにより不規則なサンプリングと複雑な動的構造を扱うことができる。
論文 参考訳(メタデータ) (2026-01-08T18:53:59Z) - Bayesian Neural Networks vs. Mixture Density Networks: Theoretical and Empirical Insights for Uncertainty-Aware Nonlinear Modeling [2.0797819204842036]
本研究では,不確実性を考慮した非線形回帰に対するベイズニューラルネットワーク(BNN)と混合密度ネットワーク(MDN)のアプローチを比較する。
理論的には、H"古い滑らかさ条件下での収束率と誤差境界を導出し、MDNがより高速なクルバック・リーブラー(KL)分散収束を実現することを示す。
本研究は, 非線形システムにおける不確実性を考慮したモデリングの指針として, 後進的および確率的確率論的学習の相補的強みを明らかにした。
論文 参考訳(メタデータ) (2025-10-28T22:00:30Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Uncertainty Modeling in Graph Neural Networks via Stochastic Differential Equations [14.422150854883453]
グラフ構造化データに対する不確実性認識表現の学習問題に対処するために,Latent Graph Neural Differential Equations (LGNSDE)を導入する。
我々は、潜在空間の分散がモデル出力の分散を束縛していることを証明し、不確実性推定に対する理論的に妥当な保証を与える。
本フレームワークは,LGNSDEが不確実性を確実に定量化できることを前提として,分布外検出,ノイズに対する堅牢性,アクティブラーニングに競争力がある。
論文 参考訳(メタデータ) (2024-08-28T19:59:58Z) - Stable Neural Stochastic Differential Equations in Analyzing Irregular Time Series Data [3.686808512438363]
実世界の時系列データにおける不規則サンプリング間隔と欠落値は,従来の手法の課題である。
本稿では,Langevin-type SDE,Linear Noise SDE,Geometric SDEの3つの安定クラスを提案する。
本研究は,実世界の不規則時系列データを扱う上で,提案手法の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-22T22:00:03Z) - DiffHybrid-UQ: Uncertainty Quantification for Differentiable Hybrid
Neural Modeling [4.76185521514135]
本稿では,ハイブリッドニューラル微分可能モデルにおける有効かつ効率的な不確実性伝播と推定のための新しい手法DiffHybrid-UQを提案する。
具体的には,データノイズとてんかんの不確かさから生じるアレタリック不確かさと,モデル形状の相違やデータ空間のばらつきから生じるエピステマティック不確かさの両方を効果的に識別し,定量化する。
論文 参考訳(メタデータ) (2023-12-30T07:40:47Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Single-model uncertainty quantification in neural network potentials
does not consistently outperform model ensembles [0.7499722271664145]
ニューラルネットワーク(NN)は、遠く離れた地点であっても、予測に高い信頼性を割り当てることが多い。
不確かさ定量化(英: Uncertainty Quantification、UQ)は、物質系における原子間ポテンシャルのモデル化に使用されるときの課題である。
異なるUQ技術は、新しい情報データを見つけ、堅牢なポテンシャルのためにアクティブな学習ループを駆動することができる。
論文 参考訳(メタデータ) (2023-05-02T19:41:17Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Accurate and Reliable Forecasting using Stochastic Differential
Equations [48.21369419647511]
ディープラーニングモデルにとって、現実世界の環境に浸透する不確実性を適切に特徴付けることは、非常に困難である。
本論文では,HNNの予測平均と分散の相互作用を特徴づけるSDE-HNNを開発した。
本手法は,予測性能と不確実性定量化の両方の観点から,最先端のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-03-28T04:18:11Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。