論文の概要: Flow marching for a generative PDE foundation model
- arxiv url: http://arxiv.org/abs/2509.18611v1
- Date: Tue, 23 Sep 2025 04:00:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.69095
- Title: Flow marching for a generative PDE foundation model
- Title(参考訳): 生成PDE基礎モデルのためのフローマーキング
- Authors: Zituo Chen, Sili Deng,
- Abstract要約: 本稿では,物理力学系における誤り蓄積の解析によって動機付けられたフローマッチングを用いて,ニューラル演算子の学習をブリッジするアルゴリズムであるフローマーチングを提案する。
また,物理制約付き変分オートエンコーダ(P2E)を導入し,物理軌道をコンパクトな潜在空間に埋め込む。
異なる12種類のPDEファミリーおよびP2EとFMTのトレインスイートの2.5Mトラジェクトリを複数スケールでキュレートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretraining on large-scale collections of PDE-governed spatiotemporal trajectories has recently shown promise for building generalizable models of dynamical systems. Yet most existing PDE foundation models rely on deterministic Transformer architectures, which lack generative flexibility for many science and engineering applications. We propose Flow Marching, an algorithm that bridges neural operator learning with flow matching motivated by an analysis of error accumulation in physical dynamical systems, and we build a generative PDE foundation model on top of it. By jointly sampling the noise level and the physical time step between adjacent states, the model learns a unified velocity field that transports a noisy current state toward its clean successor, reducing long-term rollout drift while enabling uncertainty-aware ensemble generations. Alongside this core algorithm, we introduce a Physics-Pretrained Variational Autoencoder (P2VAE) to embed physical states into a compact latent space, and an efficient Flow Marching Transformer (FMT) that combines a diffusion-forcing scheme with latent temporal pyramids, achieving up to 15x greater computational efficiency than full-length video diffusion models and thereby enabling large-scale pretraining at substantially reduced cost. We curate a corpus of ~2.5M trajectories across 12 distinct PDE families and train suites of P2VAEs and FMTs at multiple scales. On downstream evaluation, we benchmark on unseen Kolmogorov turbulence with few-shot adaptation, demonstrate long-term rollout stability over deterministic counterparts, and present uncertainty-stratified ensemble results, highlighting the importance of generative PDE foundation models for real-world applications.
- Abstract(参考訳): PDEを重畳した時空間軌道の大規模コレクションの事前学習は、最近、力学系の一般化可能なモデルを構築することを約束している。
しかし、既存のPDEファウンデーションモデルは決定論的トランスフォーマーアーキテクチャに依存しており、多くの科学や工学の応用には生成的柔軟性が欠如している。
本稿では,物理力学系における誤り蓄積の解析を動機とした,ニューラル演算子学習とフローマッチングをブリッジするアルゴリズムであるフローマーチングを提案し,その上に生成的PDE基礎モデルを構築した。
ノイズレベルと物理時間ステップを隣接状態間で共同サンプリングすることにより、ノイズの多い電流状態をクリーンな後続状態へ輸送する統一速度場を学習し、不確実性を認識したアンサンブル生成を可能とし、長期のロールアウトドリフトを低減する。
このコアアルゴリズムに加えて,物理状態をコンパクトな潜在空間に埋め込むP2VAEと,拡散強制スキームと潜時ピラミッドを組み合わせた高速なフローマーキング変換器(FMT)を導入し,フル長ビデオ拡散モデルよりも最大15倍の計算効率を実現し,大幅なコスト削減を実現した。
我々は、12の異なるPDEファミリーおよびP2VAEおよびFMTのトレインスイートの約2.5Mトラジェクトリのコーパスを複数スケールでキュレートする。
ダウンストリーム評価では,数ショットの適応で未知のコルモゴロフ乱流をベンチマークし,決定論的手法よりも長期のロールアウト安定性を示し,不確実性を考慮したアンサンブル結果を示し,実世界のアプリケーションにおける生成PDE基盤モデルの重要性を強調した。
関連論文リスト
- Physics-Based Machine Learning Closures and Wall Models for Hypersonic Transition-Continuum Boundary Layer Predictions [0.9320657506524149]
我々は、輸送モデルと境界条件を強化する物理制約付き機械学習フレームワークを開発する。
この2次元超音速平板流れをマッハ数とクヌーゼン数で評価した。
その結果,スキュート・ガウス分布関数壁モデルと組み合わせた無微量異方性粘度モデルにより,精度が大幅に向上した。
論文 参考訳(メタデータ) (2025-07-11T19:40:00Z) - Flow Matching Meets PDEs: A Unified Framework for Physics-Constrained Generation [21.321570407292263]
本稿では,PDE残差と代数的関係の両方の物理制約をフローマッチングの対象に組み込む生成フレームワークである物理ベースフローマッチングを提案する。
提案手法では,FMよりも高精度な物理残差を最大8倍に抑えながら,分布精度では既存アルゴリズムよりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2025-06-10T09:13:37Z) - Generative Latent Neural PDE Solver using Flow Matching [8.397730500554047]
低次元の潜伏空間にPDE状態を埋め込んだPDEシミュレーションのための潜伏拡散モデルを提案する。
我々のフレームワークは、オートエンコーダを使用して、異なるタイプのメッシュを統一された構造化潜在グリッドにマッピングし、複雑なジオメトリをキャプチャします。
数値実験により,提案モデルは,精度と長期安定性の両方において,決定論的ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-03-28T16:44:28Z) - DPOT: Auto-Regressive Denoising Operator Transformer for Large-Scale PDE Pre-Training [87.90342423839876]
我々は,PDEデータに対するより安定的で効率的な事前学習を可能にする,自己回帰型事前学習戦略を提案する。
我々は,100k以上の軌道を持つ10以上のPDEデータセットに対して,最大0.5BパラメータでPDEファンデーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2024-03-06T08:38:34Z) - Generative Modeling with Phase Stochastic Bridges [49.4474628881673]
拡散モデル(DM)は、連続入力のための最先端の生成モデルを表す。
我々はtextbfphase space dynamics に基づく新しい生成モデリングフレームワークを提案する。
我々のフレームワークは、動的伝播の初期段階において、現実的なデータポイントを生成する能力を示す。
論文 参考訳(メタデータ) (2023-10-11T18:38:28Z) - PDE-Refiner: Achieving Accurate Long Rollouts with Neural PDE Solvers [40.097474800631]
時間依存偏微分方程式(PDE)は、科学や工学においてユビキタスである。
ディープニューラルネットワークに基づくサロゲートへの関心が高まっている。
論文 参考訳(メタデータ) (2023-08-10T17:53:05Z) - Learning to Accelerate Partial Differential Equations via Latent Global
Evolution [64.72624347511498]
The Latent Evolution of PDEs (LE-PDE) is a simple, fast and scalable method to accelerate the simulation and inverse optimization of PDEs。
我々は,このような潜在力学を効果的に学習し,長期的安定性を確保するために,新たな学習目標を導入する。
更新対象の寸法が最大128倍、速度が最大15倍向上し、競争精度が向上した。
論文 参考訳(メタデータ) (2022-06-15T17:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。