論文の概要: Learning Data-Efficient and Generalizable Neural Operators via Fundamental Physics Knowledge
- arxiv url: http://arxiv.org/abs/2602.15184v1
- Date: Mon, 16 Feb 2026 20:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.90318
- Title: Learning Data-Efficient and Generalizable Neural Operators via Fundamental Physics Knowledge
- Title(参考訳): 基礎物理知識を用いたデータ効率・一般化可能なニューラル演算子の学習
- Authors: Siying Ma, Mehrdad M. Zadeh, Mauricio Soroco, Wuyang Chen, Jiguo Cao, Vijay Ganesh,
- Abstract要約: 機械学習の最近の進歩により、ニューラルネットワークオペレータは物理的なシステムの進化をモデル化するための強力なサロゲートとして機能するようになった。
本稿では,元のPDEと簡易な基本形式の両方から共同で学習する多物理学習フレームワークを提案する。
我々のフレームワークはデータの効率を高め、予測誤差を減らし、アウト・オブ・ディストリビューション(OOD)の一般化を改善する。
- 参考スコア(独自算出の注目度): 8.269904705399474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in scientific machine learning (SciML) have enabled neural operators (NOs) to serve as powerful surrogates for modeling the dynamic evolution of physical systems governed by partial differential equations (PDEs). While existing approaches focus primarily on learning simulations from the target PDE, they often overlook more fundamental physical principles underlying these equations. Inspired by how numerical solvers are compatible with simulations of different settings of PDEs, we propose a multiphysics training framework that jointly learns from both the original PDEs and their simplified basic forms. Our framework enhances data efficiency, reduces predictive errors, and improves out-of-distribution (OOD) generalization, particularly in scenarios involving shifts of physical parameters and synthetic-to-real transfer. Our method is architecture-agnostic and demonstrates consistent improvements in normalized root mean square error (nRMSE) across a wide range of 1D/2D/3D PDE problems. Through extensive experiments, we show that explicit incorporation of fundamental physics knowledge significantly strengthens the generalization ability of neural operators. We will release models and codes at https://sites.google.com/view/sciml-fundemental-pde.
- Abstract(参考訳): 科学機械学習(SciML)の最近の進歩により、ニューラル演算子(NO)は偏微分方程式(PDE)によって支配される物理系の動的進化をモデル化するための強力なサロゲートとして機能するようになった。
既存のアプローチは、主に対象のPDEからシミュレーションを学ぶことに焦点を当てているが、これらの方程式の基礎となるより基本的な物理原理を見落としていることが多い。
数値解法がPDEの異なる設定のシミュレーションとどのように互換性があるかに着想を得て,元のPDEと単純化された基本形式の両方から共同で学習する多物理学習フレームワークを提案する。
我々のフレームワークはデータ効率を向上し、予測誤差を低減し、特に物理パラメータのシフトや合成から現実への移動を含むシナリオにおいて、アウト・オブ・ディストリビューション(OOD)の一般化を改善する。
本手法はアーキテクチャ非依存であり,1D/2D/3D PDE問題に対して正規化根平均二乗誤差(nRMSE)が一貫した改善を示す。
より広範な実験により、基礎物理学知識の明示的な取り込みは、ニューラル作用素の一般化能力を大幅に強化することを示した。
モデルとコードはhttps://sites.google.com/view/sciml-fundemental-pde.comでリリースします。
関連論文リスト
- FMint-SDE: A Multimodal Foundation Model for Accelerating Numerical Simulation of SDEs via Error Correction [7.463977095236658]
本稿では、微分方程式の大規模シミュレーションのための新しいマルチモーダル基礎モデル(FMint-SDE)を提案する。
FMint-SDEは、コンテキスト内学習を備えたデコーダのみの変換器に基づいて、普遍的な誤り訂正スキームを学習する。
分子動力学、機械システム、ファイナンス、生物学の応用にまたがる、難解なSDEベンチマークのスイートで、我々のモデルを評価した。
論文 参考訳(メタデータ) (2025-10-31T04:49:41Z) - Learning and Transferring Physical Models through Derivatives [61.227256589854726]
本稿では,その部分微分を学習することで,物理系をモデル化する教師ありアプローチであるデリバティブ学習(DERL)を提案する。
また、DerLを利用して物理モデルを段階的に構築し、あらかじめ訓練されたモデルから学生に効果的に知識を伝達する蒸留プロトコルを設計する。
論文 参考訳(メタデータ) (2025-05-02T17:02:00Z) - Towards a Foundation Model for Physics-Informed Neural Networks: Multi-PDE Learning with Active Sampling [0.0]
物理インフォームドニューラルネットワーク(PINN)は、物理法則をニューラルネットワークトレーニングに埋め込むことで偏微分方程式(PDE)を解くための強力なフレームワークとして登場した。
本研究では,統一アーキテクチャ内で複数のPDEを解決可能な基礎PINNモデルの可能性について検討する。
論文 参考訳(メタデータ) (2025-02-11T10:12:28Z) - Advancing Generalization in PINNs through Latent-Space Representations [71.86401914779019]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される力学系のモデリングにおいて大きな進歩を遂げた。
本稿では,多種多様なPDE構成を効果的に一般化する物理インフォームドニューラルPDE解法PIDOを提案する。
PIDOは1次元合成方程式と2次元ナビエ・ストークス方程式を含む様々なベンチマークで検証する。
論文 参考訳(メタデータ) (2024-11-28T13:16:20Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - Encoding physics to learn reaction-diffusion processes [18.187800601192787]
物理構造を符号化するディープラーニングフレームワークが,PDEシステム体制に関する様々な問題に適用可能であることを示す。
物理を符号化する結果の学習パラダイムは、広範囲な数値実験により、高い精度、堅牢性、解釈可能性、一般化可能性を示す。
論文 参考訳(メタデータ) (2021-06-09T03:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。