論文の概要: Physics-Informed Laplace Neural Operator for Solving Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2602.12706v1
- Date: Fri, 13 Feb 2026 08:19:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.889568
- Title: Physics-Informed Laplace Neural Operator for Solving Partial Differential Equations
- Title(参考訳): 偏微分方程式解法のための物理インフォームドラプラスニューラル演算子
- Authors: Heechang Kim, Qianying Cao, Hyomin Shin, Seungchul Lee, George Em Karniadakis, Minseok Choi,
- Abstract要約: 物理インフォームド・ラプラス・ニューラル演算子 (PILNO) は偏微分方程式の高速サロゲート解法である。
物理をPDE、境界条件、初期条件残差による訓練に埋め込む。
PILNOは、小さなデータ設定における精度を一貫して改善し、ランダムなシード間の実行間変動を低減し、純粋なデータ駆動ベースラインよりも強力な一般化を実現する。
- 参考スコア(独自算出の注目度): 11.064132774859553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators have emerged as fast surrogate solvers for parametric partial differential equations (PDEs). However, purely data-driven models often require extensive training data and can generalize poorly, especially in small-data regimes and under unseen (out-of-distribution) input functions that are not represented in the training data. To address these limitations, we propose the Physics-Informed Laplace Neural Operator (PILNO), which enhances the Laplace Neural Operator (LNO) by embedding governing physics into training through PDE, boundary condition, and initial condition residuals. To improve expressivity, we first introduce an Advanced LNO (ALNO) backbone that retains a pole-residue transient representation while replacing the steady-state branch with an FNO-style Fourier multiplier. To make physics-informed training both data-efficient and robust, PILNO further leverages (i) virtual inputs: an unlabeled ensemble of input functions spanning a broad spectral range that provides abundant physics-only supervision and explicitly targets out-of-distribution (OOD) regimes; and (ii) temporal-causality weighting: a time-decaying reweighting of the physics residual that prioritizes early-time dynamics and stabilizes optimization for time-dependent PDEs. Across four representative benchmarks -- Burgers' equation, Darcy flow, a reaction-diffusion system, and a forced KdV equation -- PILNO consistently improves accuracy in small-data settings (e.g., N_train <= 27), reduces run-to-run variability across random seeds, and achieves stronger OOD generalization than purely data-driven baselines.
- Abstract(参考訳): ニューラル作用素はパラメトリック偏微分方程式(PDE)の高速代理解法として登場した。
しかし、純粋にデータ駆動モデルでは、広範囲なトレーニングデータを必要とすることが多く、特に小規模なデータレシエーションでは、トレーニングデータに表現されていない未知の(配布外)入力関数の下では、一般化が不十分である。
これらの制約に対処するために、PDE、境界条件、初期条件残差によるトレーニングに制御物理を埋め込むことにより、ラプラスニューラル演算子(LNO)を強化する物理インフォームドラプラスニューラル演算子(PILNO)を提案する。
まず, 定常分岐をFNO型フーリエ乗算器に置き換えつつ, 極残差の過渡表現を保持する高度LNO (ALNO) バックボーンを導入する。
物理インフォームドトレーニングをデータ効率とロバストの両方にするために、PILNOはさらに活用する
(i)仮想入力:広いスペクトル範囲にまたがる入力関数のラベルなしアンサンブルで、物理のみの監督を豊富に提供し、配当外(OOD)体制を明示的に標的としている。
(II)時間的因果重み付け:時間依存PDEの最適化を優先順位付けし、時間依存PDEの最適化を安定化する物理残差の時間分解的再重み付け。
4つの代表的なベンチマーク -- Burgers方程式、Darcyフロー、反応拡散系、強制KdV方程式 -- PILNOは、小さなデータ設定(例えば、N_train <= 27)の精度を一貫して改善し、ランダムなシード間の実行間変動を低減し、純粋にデータ駆動ベースラインよりも強力なOOD一般化を実現する。
関連論文リスト
- Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - PhysicsCorrect: A Training-Free Approach for Stable Neural PDE Simulations [4.7903561901859355]
予測ステップ毎にPDE整合性を強制する,トレーニング不要な修正フレームワークであるNyberCorrectを提案する。
私たちの重要なイノベーションは、オフラインのウォームアップフェーズでJacobianとその擬似逆をプリ計算する効率的なキャッシュ戦略です。
3つの代表的なPDEシステムにおいて、物理コレクトは予測誤差を最大100倍に削減し、無視可能な推論時間を加算する。
論文 参考訳(メタデータ) (2025-07-03T01:22:57Z) - PMNO: A novel physics guided multi-step neural operator predictor for partial differential equations [23.04840527974364]
本稿では,複雑な物理系の長期予測における課題に対処する物理誘導多段階ニューラル演算子(PMNO)アーキテクチャを提案する。
PMNOフレームワークは、シングルステップ入力をフォワードパス内の複数ステップの履歴データに置き換え、バックプロパゲーション中に暗黙のタイムステッピングスキームを導入する。
様々な物理系におけるPMNO予測器の優れた予測性能を示す。
論文 参考訳(メタデータ) (2025-06-02T12:33:50Z) - Solving Oscillator Ordinary Differential Equations in the Time Domain with High Performance via Soft-constrained Physics-informed Neural Network with Small Data [0.6446246430600296]
物理インフォームドニューラルネットワーク(PINN)は、物理情報と知識をネットワークトポロジや計算プロセスに組み込む。
本研究では,典型的な線形および非線形常微分方程式を解くために,ソフト制約PINN法の性能特性について検討する。
論文 参考訳(メタデータ) (2024-08-19T13:02:06Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - FC-PINO: High Precision Physics-Informed Neural Operators via Fourier Continuation [60.706803227003995]
FC-PINO(Fourier-Continuation-based PINO)アーキテクチャを導入し、PINOの精度と効率を非周期的および非滑らかなPDEに拡張する。
標準的なPINOは、非周期的および非滑らかなPDEを高い精度で、挑戦的なベンチマークで解くのに苦労していることを実証する。
対照的に、提案されたFC-PINOは、正確で堅牢でスケーラブルなソリューションを提供し、PINOの代替案よりも大幅に優れている。
論文 参考訳(メタデータ) (2022-11-29T06:37:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Long-time integration of parametric evolution equations with
physics-informed DeepONets [0.0]
ランダムな初期条件を関連するPDE解に短時間でマッピングする無限次元演算子を学習するための効果的なフレームワークを提案する。
その後、訓練されたモデルを反復的に評価することにより、一連の初期条件にわたるグローバルな長期予測が得られる。
これは時間領域分解に対する新しいアプローチを導入し、正確な長期シミュレーションを実行するのに有効であることを示した。
論文 参考訳(メタデータ) (2021-06-09T20:46:17Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。