論文の概要: Disentangled Latent Dynamics Manifold Fusion for Solving Parameterized PDEs
- arxiv url: http://arxiv.org/abs/2603.12676v1
- Date: Fri, 13 Mar 2026 05:46:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.924379
- Title: Disentangled Latent Dynamics Manifold Fusion for Solving Parameterized PDEs
- Title(参考訳): パラメタライズドPDEの解法におけるディスタングル型ラテント・ダイナミクス・マニフォールド核融合
- Authors: Zhangyong Liang, Ji Zhang,
- Abstract要約: 異なるPDEパラメータ間でのニューラルサロゲートモデルの一般化は依然として困難である。
既存の手法では、パラメータの一般化と時間外挿を同時に扱うことはできない。
本稿では,空間,時間,パラメータを明確に分離する物理情報処理フレームワークであるDistangled Latent Dynamics Manifold Fusion (DLDMF)を提案する。
- 参考スコア(独自算出の注目度): 5.601252185916962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalizing neural surrogate models across different PDE parameters remains difficult because changes in PDE coefficients often make learning harder and optimization less stable. The problem becomes even more severe when the model must also predict beyond the training time range. Existing methods usually cannot handle parameter generalization and temporal extrapolation at the same time. Standard parameterized models treat time as just another input and therefore fail to capture intrinsic dynamics, while recent continuous-time latent methods often rely on expensive test-time auto-decoding for each instance, which is inefficient and can disrupt continuity across the parameterized solution space. To address this, we propose Disentangled Latent Dynamics Manifold Fusion (DLDMF), a physics-informed framework that explicitly separates space, time, and parameters. Instead of unstable auto-decoding, DLDMF maps PDE parameters directly to a continuous latent embedding through a feed-forward network. This embedding initializes and conditions a latent state whose evolution is governed by a parameter-conditioned Neural ODE. We further introduce a dynamic manifold fusion mechanism that uses a shared decoder to combine spatial coordinates, parameter embeddings, and time-evolving latent states to reconstruct the corresponding spatiotemporal solution. By modeling prediction as latent dynamic evolution rather than static coordinate fitting, DLDMF reduces interference between parameter variation and temporal evolution while preserving a smooth and coherent solution manifold. As a result, it performs well on unseen parameter settings and in long-term temporal extrapolation. Experiments on several benchmark problems show that DLDMF consistently outperforms state-of-the-art baselines in accuracy, parameter generalization, and extrapolation robustness.
- Abstract(参考訳): PDE係数の変化が学習を困難にし、最適化の安定性を低下させるため、異なるPDEパラメータ間でのニューラルサロゲートモデルを一般化することは依然として困難である。
モデルがトレーニング時間範囲を超えて予測する必要がある場合、問題はさらに深刻になる。
既存の手法では、パラメータの一般化と時間外挿を同時に扱うことはできない。
標準パラメータ化モデルは時間を単なる入力として扱うため、本質的なダイナミクスを捉えることができないが、最近の連続時間遅延法は各インスタンスに対して高価なテストタイムの自動デコードに依存しており、これは非効率であり、パラメータ化された解空間の連続性を阻害する可能性がある。
そこで本研究では,空間,時間,パラメータを明確に分離する物理情報処理フレームワークであるDistangled Latent Dynamics Manifold Fusion (DLDMF)を提案する。
不安定な自動デコーディングの代わりに、DLDMFはPDEパラメータをフィードフォワードネットワークを介して連続的な潜伏埋め込みに直接マッピングする。
この埋め込みは、パラメータ条件のニューラルODEによって進化が制御される潜在状態の初期化と条件付けを行う。
さらに、共有デコーダを用いて空間座標、パラメータ埋め込み、時間進化状態を組み合わせた動的多様体融合機構を導入し、対応する時空間解を再構成する。
DLDMFは静的座標フィッティングよりも遅延動的進化としての予測をモデル化することにより、スムーズでコヒーレントな解多様体を保ちながらパラメータの変動と時間的進化の間の干渉を減らす。
その結果、未確認パラメータ設定や長期時間外挿でよく機能する。
いくつかのベンチマーク問題に対する実験では、DLDMFは精度、パラメータの一般化、外挿の堅牢性において、最先端のベースラインを一貫して上回っている。
関連論文リスト
- ENMA: Tokenwise Autoregression for Generative Neural PDE Operators [12.314585849869797]
本稿では,物理現象から生じるダイナミクスをモデル化するための生成型ニューラルテンポラル演算子ENMAを紹介する。
ENMAは、フローマッチング損失を訓練した生成マスク付き自己回帰変換器を用いて、将来の動的圧縮潜在空間を予測する。
このフレームワークは、新しいPDEレジームに一般化され、時間依存パラメトリックPDEのワンショットサロゲートモデリングをサポートする。
論文 参考訳(メタデータ) (2025-06-06T15:25:14Z) - CALM-PDE: Continuous and Adaptive Convolutions for Latent Space Modeling of Time-dependent PDEs [21.325228694415085]
CALM-PDEは圧縮潜在空間における任意の離散化PDEを効率的に解くモデルクラスである。
我々は,エプシロン近傍に制約のあるカーネルを用いた,新しい連続畳み込み型エンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-05-19T10:31:30Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Trajectory Flow Matching with Applications to Clinical Time Series Modeling [77.58277281319253]
Trajectory Flow Matching (TFM) は、シミュレーションのない方法でニューラルSDEを訓練し、ダイナミックスを通してバックプロパゲーションをバイパスする。
絶対的性能と不確実性予測の観点から,3つの臨床時系列データセットの性能向上を実証した。
論文 参考訳(メタデータ) (2024-10-28T15:54:50Z) - On latent dynamics learning in nonlinear reduced order modeling [0.6249768559720122]
本稿では,パラメータ化非線形時間依存PDEの次数モデリングのための潜在力学モデル(LDM)の数学的枠組みを提案する。
フルオーダーモデル (FOM) 解の LDM 近似に対する誤差と安定性の推定を導出するために, 時間連続的な設定を用いる。
ディープニューラルネットワークは離散LDM成分を近似し、FOMに関して有界近似誤差を提供する。
論文 参考訳(メタデータ) (2024-08-27T16:35:06Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Learning to Accelerate Partial Differential Equations via Latent Global
Evolution [64.72624347511498]
The Latent Evolution of PDEs (LE-PDE) is a simple, fast and scalable method to accelerate the simulation and inverse optimization of PDEs。
我々は,このような潜在力学を効果的に学習し,長期的安定性を確保するために,新たな学習目標を導入する。
更新対象の寸法が最大128倍、速度が最大15倍向上し、競争精度が向上した。
論文 参考訳(メタデータ) (2022-06-15T17:31:24Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。