論文の概要: CFO: Learning Continuous-Time PDE Dynamics via Flow-Matched Neural Operators
- arxiv url: http://arxiv.org/abs/2512.05297v1
- Date: Thu, 04 Dec 2025 22:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.831635
- Title: CFO: Learning Continuous-Time PDE Dynamics via Flow-Matched Neural Operators
- Title(参考訳): CFO:フローマッチングニューラル演算子による連続時間PDEダイナミクスの学習
- Authors: Xianglong Hou, Xinquan Huang, Paris Perdikaris,
- Abstract要約: 連続フロー演算子(Continuous Flow Operator, CFO)は、標準的な連続アプローチであるニューラルODEの計算負担を伴わずに、連続時間PDEダイナミクスを学習する。
CFOは時相スプラインを軌跡データに適合させ、結び目における時間微分の有限差分推定を用いて、真のPDE力学に近似した速度の確率経路を構築する。
ニューラル作用素はフローマッチングによってトレーニングされ、これらの解析速度場を予測する。
- 参考スコア(独自算出の注目度): 9.273461312644345
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural operator surrogates for time-dependent partial differential equations (PDEs) conventionally employ autoregressive prediction schemes, which accumulate error over long rollouts and require uniform temporal discretization. We introduce the Continuous Flow Operator (CFO), a framework that learns continuous-time PDE dynamics without the computational burden of standard continuous approaches, e.g., neural ODE. The key insight is repurposing flow matching to directly learn the right-hand side of PDEs without backpropagating through ODE solvers. CFO fits temporal splines to trajectory data, using finite-difference estimates of time derivatives at knots to construct probability paths whose velocities closely approximate the true PDE dynamics. A neural operator is then trained via flow matching to predict these analytic velocity fields. This approach is inherently time-resolution invariant: training accepts trajectories sampled on arbitrary, non-uniform time grids while inference queries solutions at any temporal resolution through ODE integration. Across four benchmarks (Lorenz, 1D Burgers, 2D diffusion-reaction, 2D shallow water), CFO demonstrates superior long-horizon stability and remarkable data efficiency. CFO trained on only 25% of irregularly subsampled time points outperforms autoregressive baselines trained on complete data, with relative error reductions up to 87%. Despite requiring numerical integration at inference, CFO achieves competitive efficiency, outperforming autoregressive baselines using only 50% of their function evaluations, while uniquely enabling reverse-time inference and arbitrary temporal querying.
- Abstract(参考訳): ニューラル作用素は、時間依存偏微分方程式 (PDE) に対して、従来の自己回帰予測スキームを用いて、長いロールアウトのエラーを蓄積し、一様時間的離散化を必要とする。
CFO(Continuous Flow Operator)は、標準的な継続的アプローチであるニューラルODEの計算負担を伴わずに、継続的PDEダイナミクスを学習するフレームワークである。
重要な洞察は、フローマッチングを再取得して、ODEソルバをバックプロパゲートすることなく、PDEの右サイドを直接学習することです。
CFOは時相スプラインを軌跡データに適合させ、結び目における時間微分の有限差分推定を用いて、真のPDE力学に近似した速度の確率経路を構築する。
ニューラル作用素はフローマッチングによってトレーニングされ、これらの解析速度場を予測する。
トレーニングは任意の非一様時間グリッド上でサンプリングされた軌跡を受け入れる一方で、ODE統合を通じて任意の時間分解におけるクエリーソリューションを推論する。
4つのベンチマーク(Lorenz, 1D Burgers, 2Dfusion-reaction, 2D shallow Water)で、CFOはより優れた長水平安定性と顕著なデータ効率を示す。
CFOは、不規則にサンプリングされたタイムポイントの25%しかトレーニングしていないが、完全なデータに基づいてトレーニングされた自己回帰ベースラインよりも優れており、相対誤差は87%まで減少している。
推論時に数値積分を必要とするにもかかわらず、CFOは競合効率を達成し、関数評価の50%しか使っていない自己回帰ベースラインよりも優れ、一方、逆時間推論と任意の時間的クエリが一意に可能である。
関連論文リスト
- Generative Modeling with Continuous Flows: Sample Complexity of Flow Matching [60.37045080890305]
本稿では,フローマッチングに基づく生成モデルにおいて,サンプルの複雑さを初めて解析する。
速度場推定誤差をニューラルネットワーク近似誤差、有限標本サイズによる統計的誤差、速度場推定のための有限個の最適化ステップによる最適化誤差に分解する。
論文 参考訳(メタデータ) (2025-12-01T05:14:25Z) - NOWS: Neural Operator Warm Starts for Accelerating Iterative Solvers [1.8117099374299037]
偏微分方程式 (Partial differential equation, PDE) は、物理科学や工学における定量的記述の基盤となっている。
データ駆動サロゲートは驚くほど高速だが、トレーニングディストリビューションの外で適用されると、しばしば信頼性が低下する。
本稿では、学習した解演算子を利用して古典的反復解法を高速化するハイブリッド戦略であるNeural Operator Warm Starts (NOWS)を紹介する。
論文 参考訳(メタデータ) (2025-11-04T11:12:27Z) - Neural Stochastic Flows: Solver-Free Modelling and Inference for SDE Solutions [23.147474211347856]
我々はニューラルフロー(NSF)とその潜伏変種を導入し、SDE遷移則を直接学習する(最近)。
合成SDEシミュレーションと実世界の追跡とビデオデータを用いた実験により,NSFは数値的アプローチに匹敵する分布精度を維持していることが示された。
論文 参考訳(メタデータ) (2025-10-29T17:59:06Z) - TI-DeepONet: Learnable Time Integration for Stable Long-Term Extrapolation [0.0]
TI-DeepONetは、ニューラルネットワークと適応的な数値タイムステッピング技術を統合するフレームワークである。
本研究は,ニューラルネットワークを数値解析でブリッジする物理認識演算子学習パラダイムを確立する。
論文 参考訳(メタデータ) (2025-05-22T23:24:31Z) - MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - Simulation-Free Training of Neural ODEs on Paired Data [20.36333430055869]
我々は,NODEのシミュレーションフリートレーニングにフローマッチングフレームワークを用いる。
ペアデータ間で直接フローマッチングを適用することは、しばしば不定義のフローにつながることを示す。
データペアの埋め込み空間にフローマッチングを適用するための簡単な拡張を提案する。
論文 参考訳(メタデータ) (2024-10-30T11:18:27Z) - Distributed Stochastic Gradient Descent with Staleness: A Stochastic Delay Differential Equation Based Framework [56.82432591933544]
分散勾配降下(SGD)は、計算リソースのスケーリング、トレーニング時間の短縮、マシンラーニングにおけるユーザのプライバシ保護の支援などにより、近年注目されている。
本稿では,遅延微分方程式(SDDE)と勾配到着の近似に基づく分散SGDの実行時間と安定化について述べる。
活性化作業員の増加は, 安定度による分散SGDを必ずしも加速させるものではないことが興味深い。
論文 参考訳(メタデータ) (2024-06-17T02:56:55Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。