論文の概要: Physics-Informed Laplace Neural Operator for Solving Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2602.12706v1
- Date: Fri, 13 Feb 2026 08:19:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.889568
- Title: Physics-Informed Laplace Neural Operator for Solving Partial Differential Equations
- Title(参考訳): 偏微分方程式解法のための物理インフォームドラプラスニューラル演算子
- Authors: Heechang Kim, Qianying Cao, Hyomin Shin, Seungchul Lee, George Em Karniadakis, Minseok Choi,
- Abstract要約: 物理インフォームド・ラプラス・ニューラル演算子 (PILNO) は偏微分方程式の高速サロゲート解法である。
物理をPDE、境界条件、初期条件残差による訓練に埋め込む。
PILNOは、小さなデータ設定における精度を一貫して改善し、ランダムなシード間の実行間変動を低減し、純粋なデータ駆動ベースラインよりも強力な一般化を実現する。
- 参考スコア(独自算出の注目度): 11.064132774859553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators have emerged as fast surrogate solvers for parametric partial differential equations (PDEs). However, purely data-driven models often require extensive training data and can generalize poorly, especially in small-data regimes and under unseen (out-of-distribution) input functions that are not represented in the training data. To address these limitations, we propose the Physics-Informed Laplace Neural Operator (PILNO), which enhances the Laplace Neural Operator (LNO) by embedding governing physics into training through PDE, boundary condition, and initial condition residuals. To improve expressivity, we first introduce an Advanced LNO (ALNO) backbone that retains a pole-residue transient representation while replacing the steady-state branch with an FNO-style Fourier multiplier. To make physics-informed training both data-efficient and robust, PILNO further leverages (i) virtual inputs: an unlabeled ensemble of input functions spanning a broad spectral range that provides abundant physics-only supervision and explicitly targets out-of-distribution (OOD) regimes; and (ii) temporal-causality weighting: a time-decaying reweighting of the physics residual that prioritizes early-time dynamics and stabilizes optimization for time-dependent PDEs. Across four representative benchmarks -- Burgers' equation, Darcy flow, a reaction-diffusion system, and a forced KdV equation -- PILNO consistently improves accuracy in small-data settings (e.g., N_train <= 27), reduces run-to-run variability across random seeds, and achieves stronger OOD generalization than purely data-driven baselines.
- Abstract(参考訳): ニューラル作用素はパラメトリック偏微分方程式(PDE)の高速代理解法として登場した。
しかし、純粋にデータ駆動モデルでは、広範囲なトレーニングデータを必要とすることが多く、特に小規模なデータレシエーションでは、トレーニングデータに表現されていない未知の(配布外)入力関数の下では、一般化が不十分である。
これらの制約に対処するために、PDE、境界条件、初期条件残差によるトレーニングに制御物理を埋め込むことにより、ラプラスニューラル演算子(LNO)を強化する物理インフォームドラプラスニューラル演算子(PILNO)を提案する。
まず, 定常分岐をFNO型フーリエ乗算器に置き換えつつ, 極残差の過渡表現を保持する高度LNO (ALNO) バックボーンを導入する。
物理インフォームドトレーニングをデータ効率とロバストの両方にするために、PILNOはさらに活用する
(i)仮想入力:広いスペクトル範囲にまたがる入力関数のラベルなしアンサンブルで、物理のみの監督を豊富に提供し、配当外(OOD)体制を明示的に標的としている。
(II)時間的因果重み付け:時間依存PDEの最適化を優先順位付けし、時間依存PDEの最適化を安定化する物理残差の時間分解的再重み付け。
4つの代表的なベンチマーク -- Burgers方程式、Darcyフロー、反応拡散系、強制KdV方程式 -- PILNOは、小さなデータ設定(例えば、N_train <= 27)の精度を一貫して改善し、ランダムなシード間の実行間変動を低減し、純粋にデータ駆動ベースラインよりも強力なOOD一般化を実現する。
関連論文リスト
- Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - Solving Oscillator Ordinary Differential Equations in the Time Domain with High Performance via Soft-constrained Physics-informed Neural Network with Small Data [0.6446246430600296]
物理インフォームドニューラルネットワーク(PINN)は、物理情報と知識をネットワークトポロジや計算プロセスに組み込む。
本研究では,典型的な線形および非線形常微分方程式を解くために,ソフト制約PINN法の性能特性について検討する。
論文 参考訳(メタデータ) (2024-08-19T13:02:06Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。