論文の概要: LEVDA: Latent Ensemble Variational Data Assimilation via Differentiable Dynamics
- arxiv url: http://arxiv.org/abs/2602.19406v1
- Date: Mon, 23 Feb 2026 00:54:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.627886
- Title: LEVDA: Latent Ensemble Variational Data Assimilation via Differentiable Dynamics
- Title(参考訳): LEVDA:微分力学による潜在アンサンブル変分データ同化
- Authors: Phillip Si, Peng Chen,
- Abstract要約: 本稿では,アンサンブル空間の変動スムーズなラテント・アンサンブル・データ・アシミレーション(LEVDA)を提案する。
随伴符号や補助観察から潜伏までのエンコーダを必要とせず、状態と未知のパラメータを同化する。
完全状態の4DEnVarに比べて、同化精度と計算効率が大幅に向上した。
- 参考スコア(独自算出の注目度): 6.953554594702111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-range geophysical forecasts are fundamentally limited by chaotic dynamics and numerical errors. While data assimilation can mitigate these issues, classical variational smoothers require computationally expensive tangent-linear and adjoint models. Conversely, recent efficient latent filtering methods often enforce weak trajectory-level constraints and assume fixed observation grids. To bridge this gap, we propose Latent Ensemble Variational Data Assimilation (LEVDA), an ensemble-space variational smoother that operates in the low-dimensional latent space of a pretrained differentiable neural dynamics surrogate. By performing four-dimensional ensemble-variational (4DEnVar) optimization within an ensemble subspace, LEVDA jointly assimilates states and unknown parameters without the need for adjoint code or auxiliary observation-to-latent encoders. Leveraging the fully differentiable, continuous-in-time-and-space nature of the surrogate, LEVDA naturally accommodates highly irregular sampling at arbitrary spatiotemporal locations. Across three challenging geophysical benchmarks, LEVDA matches or outperforms state-of-the-art latent filtering baselines under severe observational sparsity while providing more reliable uncertainty quantification. Simultaneously, it achieves substantially improved assimilation accuracy and computational efficiency compared to full-state 4DEnVar.
- Abstract(参考訳): 長距離の物理予測は基本的にカオス力学と数値誤差によって制限される。
データ同化はこれらの問題を緩和するが、古典的な変分スムーダは計算に高価な接線モデルと随伴モデルを必要とする。
逆に、近年の効率的な遅延フィルタリング手法は、しばしば弱い軌道レベルの制約を課し、固定された観測格子を仮定する。
このギャップを埋めるために、事前学習可能な微分ニューラルネットワークの低次元潜時空間で動作するアンサンブル空間変動スムーサであるLatent Ensemble Variational Data Assimilation (LEVDA)を提案する。
アンサンブル部分空間内で4次元アンサンブル変分法 (4DEnVar) を最適化することにより、LEVDAは随伴符号や補助観測から相対エンコーダを必要とせずに、状態と未知のパラメータを共同する。
LEVDAは、サロゲートの完全な微分可能で連続的な時間と空間の性質を利用して、任意の時空間位置において非常に不規則なサンプリングを行う。
3つの挑戦的な地球物理学のベンチマークの中で、LEVDAは、より信頼性の高い不確実性定量化を提供しながら、厳密な観測範囲で最先端の潜伏フィルタリングベースラインに適合または性能を向上する。
同時に、フルステートの4DEnVarと比較して、同化精度と計算効率を大幅に向上させる。
関連論文リスト
- Equivariant Evidential Deep Learning for Interatomic Potentials [55.6997213490859]
不確かさの定量化は、分子動力学シミュレーションにおける機械学習の原子間ポテンシャルの信頼性を評価するために重要である。
既存のMLIPのUQアプローチは、高い計算コストや準最適性能によって制限されることが多い。
我々は,原子間ポテンシャルの定量的深層学習(texte2$IP)を提案する。
論文 参考訳(メタデータ) (2026-02-11T02:00:25Z) - Stable Neural Stochastic Differential Equations in Analyzing Irregular Time Series Data [3.686808512438363]
実世界の時系列データにおける不規則サンプリング間隔と欠落値は,従来の手法の課題である。
本稿では,Langevin-type SDE,Linear Noise SDE,Geometric SDEの3つの安定クラスを提案する。
本研究は,実世界の不規則時系列データを扱う上で,提案手法の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-22T22:00:03Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Heteroskedastic and Imbalanced Deep Learning with Adaptive
Regularization [55.278153228758434]
実世界のデータセットはヘテロスケダティックで不均衡である。
ヘテロスケダスティック性と不均衡を同時に扱うことは、未発見である。
本稿ではヘテロスケダスティックデータセットに対するデータ依存正規化手法を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。