論文の概要: Physics-informed fine-tuning of foundation models for partial differential equations
- arxiv url: http://arxiv.org/abs/2603.15431v1
- Date: Mon, 16 Mar 2026 15:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.546442
- Title: Physics-informed fine-tuning of foundation models for partial differential equations
- Title(参考訳): 偏微分方程式の基礎モデルの物理インフォームド微調整
- Authors: Vlad Medvedev, Leon Armbruster, Christopher Straub, Georg Kruse, Andreas Rosskopf,
- Abstract要約: 偏微分方程式(PDE)の基礎モデルは、様々な物理系で事前訓練された強力な代理として登場した。
物理インフォームド・ファインチューニングフレームワークを導入し,物理制約を直接微調整対象に組み込むことで,事前学習したPDE基礎モデルに適応する。
この結果から,物理インフォームド微調整はPDEを学習に必要とせず,競争精度が向上することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models for partial differential equations (PDEs) have emerged as powerful surrogates pre-trained on diverse physical systems, but adapting them to new downstream tasks remains challenging due to limited task-specific data and distribution shifts. While fine-tuning has proven transformative in natural language processing, best practices for adapting PDE foundation models remain underexplored. Although physics-informed training has successfully trained accurate solvers across a wide range of PDE problems, its potential for fine-tuning data-based foundation models has not been systematically studied. In this work, we introduce a physics-informed fine-tuning framework that adapts pre-trained PDE foundation models by incorporating physical constraints (PDE residuals and boundary conditions) directly into the fine-tuning objective. This enables effective adaptation in data-scarce regimes while promoting physical consistency. We evaluate our method on a downstream task composed of an unseen PDE class and compare it with data-driven finetuning counterparts. Our results demonstrate that physics-informed fine-tuning achieves competitive accuracy without requiring PDE solutions for training. Furthermore, a hybrid fine-tuning strategy yields superior generalization to out-of-distribution scenarios when only minimal training data is available. These findings establish physics-informed fine-tuning as a scalable and data-efficient paradigm, providing a physically interpretable pathway for adapting foundation models in scientific machine learning.
- Abstract(参考訳): 偏微分方程式の基礎モデル(PDE)は、様々な物理システムで事前訓練された強力なサロゲートとして登場したが、タスク固有のデータや分散シフトが限られているため、新しい下流タスクに適応することは依然として困難である。
自然言語処理では微調整が革新的であることが証明されているが、PDEファンデーションモデルを適用するためのベストプラクティスは未検討のままである。
物理インフォームドトレーニングは、幅広いPDE問題で正確な解法を訓練することに成功したが、微調整データベースの基礎モデルの可能性は体系的に研究されていない。
本研究では,PDE基礎モデルに物理制約(PDE残差と境界条件)を直接微調整対象に組み込むことで,事前学習したPDE基礎モデルに適応する物理インフォームによる微調整フレームワークを提案する。
これにより、物理的整合性を促進しながら、データスカースレジームへの効果的な適応が可能になる。
そこで本手法は, 未知のPDEクラスからなる下流タスクに対して評価し, データ駆動の微調整タスクと比較する。
この結果から,物理インフォームド微調整はPDEを学習に必要とせず,競争精度が向上することが示された。
さらに、ハイブリッド微調整戦略は、最小限のトレーニングデータしか利用できない場合、配布外シナリオに優れた一般化をもたらす。
これらの知見は、スケーラブルでデータ効率のよいパラダイムとして物理インフォームド・ファインチューニングを確立し、科学機械学習の基礎モデルに適応するための物理的に解釈可能な経路を提供する。
関連論文リスト
- Out-of-distribution transfer of PDE foundation models to material dynamics under extreme loading [86.6550968435969]
ほとんどのPDEファンデーションモデルは、流体中心のベンチマークに基づいて事前訓練され、微調整されている。
衝撃, 進化する界面, 破壊が非平滑な場を生み出す2つの不連続支配的体制について, 分布外移動をベンチマークする。
我々は,PDE基礎モデルであるPOSEIDONとMORPHを2つのオープンソースとして評価し,事前学習した重みからの微調整と,トレーニングセットのサイズによるスクラッチからのトレーニングを比較し,分散シフト下でのサンプル効率の定量化を行った。
論文 参考訳(メタデータ) (2026-03-04T18:19:35Z) - Learning Data-Efficient and Generalizable Neural Operators via Fundamental Physics Knowledge [8.269904705399474]
機械学習の最近の進歩により、ニューラルネットワークオペレータは物理的なシステムの進化をモデル化するための強力なサロゲートとして機能するようになった。
本稿では,元のPDEと簡易な基本形式の両方から共同で学習する多物理学習フレームワークを提案する。
我々のフレームワークはデータの効率を高め、予測誤差を減らし、アウト・オブ・ディストリビューション(OOD)の一般化を改善する。
論文 参考訳(メタデータ) (2026-02-16T20:45:10Z) - PI-MFM: Physics-informed multimodal foundation model for solving partial differential equations [6.876642270107136]
本稿では, 事前学習と適応において, 制御方程式を直接強制する物理インフォームド・マルチモーダル基礎モデル(PI-MFM)を提案する。
PI-MFMは入力としてPDEのシンボル表現を取り、入力表現からPDEの残留損失を自動的に組み立てる。
13のパラメトリックな1次元時間依存PDEファミリのベンチマークでは、PI-MFMは純粋にデータ駆動のファミリを上回っている。
論文 参考訳(メタデータ) (2025-12-28T19:43:57Z) - Physics-Constrained Fine-Tuning of Flow-Matching Models for Generation and Inverse Problems [3.3811247908085855]
本稿では、物理制約を強制し、科学的システムにおける逆問題を解決するための微調整フローマッチング生成モデルの枠組みを提案する。
我々のアプローチは、生成的モデリングと科学的推論を橋渡し、シミュレーション強化された発見と物理システムのデータ効率のモデリングのための新たな道を開く。
論文 参考訳(メタデータ) (2025-08-05T09:32:04Z) - Hybrid Generative Modeling for Incomplete Physics: Deep Grey-Box Meets Optimal Transport [48.06072022424773]
多くの実世界の系は、方程式の欠落や未知の項にのみ記述される。
これにより、物理モデルの分布は真のデータ生成過程(DGP)とは異なる。
非完全物理モデルを強化するために, 深層グレーボックスモデルと最適輸送法を組み合わせた新しいハイブリッド生成モデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T13:23:27Z) - Physics-informed Reduced Order Modeling of Time-dependent PDEs via Differentiable Solvers [1.224954637705144]
本稿では,PDEソルバをトレーニング手順に組み込んだ物理インフォームドROM(Phi$-ROM)を提案する。
我々のモデルは、最先端のデータ駆動ROMやその他の物理インフォームド戦略より優れています。
$Phi$-ROMは、未熟で不規則な視野で訓練されたり評価されたりしても、解場を回復し、予測することを学ぶ。
論文 参考訳(メタデータ) (2025-05-20T16:47:04Z) - Paving the way for scientific foundation models: enhancing generalization and robustness in PDEs with constraint-aware pre-training [49.8035317670223]
科学基盤モデル(SciFM)は、様々な領域にまたがる伝達可能な表現を学習するための有望なツールとして登場しつつある。
本稿では,PDE残差を単独の学習信号として,あるいはデータ損失と組み合わせて事前学習に組み込むことにより,限定的あるいは実用的でないトレーニングデータに補償することを提案する。
以上の結果から, PDE制約による事前学習は, 解データのみを訓練したモデルよりも, 一般化を著しく向上させることが示された。
論文 参考訳(メタデータ) (2025-03-24T19:12:39Z) - Advancing Generalization in PINNs through Latent-Space Representations [71.86401914779019]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される力学系のモデリングにおいて大きな進歩を遂げた。
本稿では,多種多様なPDE構成を効果的に一般化する物理インフォームドニューラルPDE解法PIDOを提案する。
PIDOは1次元合成方程式と2次元ナビエ・ストークス方程式を含む様々なベンチマークで検証する。
論文 参考訳(メタデータ) (2024-11-28T13:16:20Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。