論文の概要: Flow-matching Operators for Residual-Augmented Probabilistic Learning of Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2512.12749v1
- Date: Sun, 14 Dec 2025 16:06:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.416728
- Title: Flow-matching Operators for Residual-Augmented Probabilistic Learning of Partial Differential Equations
- Title(参考訳): 部分微分方程式の残差拡張確率学習のためのフローマッチング演算子
- Authors: Sahil Bhola, Karthik Duraisamy,
- Abstract要約: 無限次元関数空間におけるフローマッチングを定式化し、確率的輸送を学習する。
本研究では,フローマッチングベクトル場に対する特徴量線形変調に基づく条件付きニューラル演算子アーキテクチャを開発する。
提案手法は,解演算子を様々な解像度と忠実度で正確に学習できることを示す。
- 参考スコア(独自算出の注目度): 0.5729426778193397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning probabilistic surrogates for PDEs remains challenging in data-scarce regimes: neural operators require large amounts of high-fidelity data, while generative approaches typically sacrifice resolution invariance. We formulate flow matching in an infinite-dimensional function space to learn a probabilistic transport that maps low-fidelity approximations to the manifold of high-fidelity PDE solutions via learned residual corrections. We develop a conditional neural operator architecture based on feature-wise linear modulation for flow-matching vector fields directly in function space, enabling inference at arbitrary spatial resolutions without retraining. To improve stability and representational control of the induced neural ODE, we parameterize the flow vector field as a sum of a linear operator and a nonlinear operator, combining lightweight linear components with a conditioned Fourier neural operator for expressive, input-dependent dynamics. We then formulate a residual-augmented learning strategy where the flow model learns probabilistic corrections from inexpensive low-fidelity surrogates to high-fidelity solutions, rather than learning the full solution mapping from scratch. Finally, we derive tractable training objectives that extend conditional flow matching to the operator setting with input-function-dependent couplings. To demonstrate the effectiveness of our approach, we present numerical experiments on a range of PDEs, including the 1D advection and Burgers' equation, and a 2D Darcy flow problem for flow through a porous medium. We show that the proposed method can accurately learn solution operators across different resolutions and fidelities and produces uncertainty estimates that appropriately reflect model confidence, even when trained on limited high-fidelity data.
- Abstract(参考訳): ニューラル演算子は大量の高忠実度データを必要とするが、生成的アプローチは典型的には解像度不変性を犠牲にする。
無限次元関数空間におけるフローマッチングを定式化し、学習された残差補正により低忠実度近似を高忠実度PDE解の多様体にマッピングする確率輸送を学習する。
本研究では,関数空間内でのフローマッチングベクトル場に対する特徴量線形変調に基づく条件付きニューラル演算子アーキテクチャを構築し,任意の空間分解能の推論を可能にする。
本研究では, 線形演算子と非線形演算子の和としてフローベクトル場をパラメータ化し, 非線形演算子と条件付きフーリエニューラル演算子を組み合わせることにより, 表現的, 入力依存的ダイナミクスを実現する。
次に、フローモデルが、スクラッチから完全な解写像を学習するのではなく、安価な低忠実度サロゲートから高忠実度解への確率的補正を学習する残差学習戦略を定式化する。
最後に,条件付きフローマッチングを,入力関数依存結合を用いた演算子設定に拡張するトラクタブルな学習目標を導出する。
提案手法の有効性を実証するため,多孔質媒質中の流れに対する1次元対流とバーガース方程式を含む多種多孔質PDEの数値解析実験を行った。
提案手法は,解像度や忠実度の異なる解演算子を正確に学習し,モデル信頼性を適切に反映する不確かさを推定できることを示す。
関連論文リスト
- Generative Modeling with Continuous Flows: Sample Complexity of Flow Matching [60.37045080890305]
本稿では,フローマッチングに基づく生成モデルにおいて,サンプルの複雑さを初めて解析する。
速度場推定誤差をニューラルネットワーク近似誤差、有限標本サイズによる統計的誤差、速度場推定のための有限個の最適化ステップによる最適化誤差に分解する。
論文 参考訳(メタデータ) (2025-12-01T05:14:25Z) - LVM-GP: Uncertainty-Aware PDE Solver via coupling latent variable model and Gaussian process [9.576396359649921]
雑音データを用いたPDEの解法における不確実性定量化のための新しいフレームワーク LVM-GP を提案する。
アーキテクチャは信頼を意識したエンコーダと確率的デコーダで構成される。
論文 参考訳(メタデータ) (2025-07-30T09:00:39Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Flow-based Distributionally Robust Optimization [23.232731771848883]
We present a framework, called $textttFlowDRO$, for solve flow-based distributionally robust optimization (DRO) problem with Wasserstein uncertainty set。
我々は、連続した最悪のケース分布(Last Favorable Distribution, LFD)とそれからのサンプルを見つけることを目指している。
本稿では、逆学習、分布論的に堅牢な仮説テスト、およびデータ駆動型分布摂動差分プライバシーの新しいメカニズムを実証する。
論文 参考訳(メタデータ) (2023-10-30T03:53:31Z) - Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations [9.148052787201797]
ニューラル演算子を訓練し、変分形式でPDEを解くための統一的な枠組みを提供する新しいパラダイムを提案する。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットにより、VOLは、未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
論文 参考訳(メタデータ) (2023-04-09T13:20:19Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。