論文の概要: PDE-aware Optimizer for Physics-informed Neural Networks
- arxiv url: http://arxiv.org/abs/2507.08118v1
- Date: Thu, 10 Jul 2025 19:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.152006
- Title: PDE-aware Optimizer for Physics-informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークのためのPDE対応最適化器
- Authors: Hardik Shukla, Manurag Khullar, Vismay Churiwala,
- Abstract要約: サンプルごとのPDE残差に基づいてパラメータ更新を適応するPDE認識を提案する。
この方法は、SOAPのような二階勾配の計算コストを伴わずに、勾配のずれに対処する。
PINN訓練におけるPDE残差認識適応性の有効性について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-Informed Neural Networks (PINNs) have emerged as a powerful framework for solving partial differential equations (PDEs) by embedding physical constraints into the loss function. However, standard optimizers such as Adam often struggle to balance competing loss terms, particularly in stiff or ill-conditioned systems. In this work, we propose a PDE-aware optimizer that adapts parameter updates based on the variance of per-sample PDE residual gradients. This method addresses gradient misalignment without incurring the heavy computational costs of second-order optimizers such as SOAP. We benchmark the PDE-aware optimizer against Adam and SOAP on 1D Burgers', Allen-Cahn and Korteweg-de Vries(KdV) equations. Across both PDEs, the PDE-aware optimizer achieves smoother convergence and lower absolute errors, particularly in regions with sharp gradients. Our results demonstrate the effectiveness of PDE residual-aware adaptivity in enhancing stability in PINNs training. While promising, further scaling on larger architectures and hardware accelerators remains an important direction for future research.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、物理制約を損失関数に埋め込むことで偏微分方程式(PDE)を解くための強力なフレームワークとして登場した。
しかし、アダムのような標準的なオプティマイザは、しばしば競合する損失項のバランスをとるのに苦労する。
本研究では,サンプルごとのPDE残差勾配の分散に基づいてパラメータ更新を適応するPDE対応オプティマイザを提案する。
この方法は、SOAPのような二階最適化器の計算コストを増大させることなく、勾配のずれに対処する。
我々は,1D Burgers,Allen-Cahn,Krteweg-de Vries(KdV)方程式に対するAdam,SOAPに対するPDE対応オプティマイザのベンチマークを行った。
どちらのPDEに対しても、PDE対応オプティマイザは、特に急勾配のある領域において、よりスムーズな収束と低い絶対誤差を実現する。
PINN訓練におけるPDE残差認識適応性の有効性について検討した。
有望ではあるが、より大きなアーキテクチャやハードウェアアクセラレーターのさらなるスケーリングは、将来の研究にとって重要な方向である。
関連論文リスト
- Advancing Generalization in PINNs through Latent-Space Representations [71.86401914779019]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される力学系のモデリングにおいて大きな進歩を遂げた。
本稿では,多種多様なPDE構成を効果的に一般化する物理インフォームドニューラルPDE解法PIDOを提案する。
PIDOは1次元合成方程式と2次元ナビエ・ストークス方程式を含む様々なベンチマークで検証する。
論文 参考訳(メタデータ) (2024-11-28T13:16:20Z) - P$^2$C$^2$Net: PDE-Preserved Coarse Correction Network for efficient prediction of spatiotemporal dynamics [38.53011684603394]
我々はPDE保存型粗補正ネットワーク(P$2$C$2$Net)を導入し、小さなデータ構造における粗いメッシュグリッド上のPDE問題を解決する。
モデルは,(1)粗い解(すなわちシステム状態)の更新を学習するトレーニング可能なPDEブロックと,(2)一貫した解の修正を行うニューラルネットワークブロックの2つの相乗的モジュールから構成される。
論文 参考訳(メタデータ) (2024-10-29T14:45:07Z) - Learning a Neural Solver for Parametric PDE to Enhance Physics-Informed Methods [14.791541465418263]
データに基づいて訓練された物理インフォームド反復アルゴリズムを用いて偏微分方程式(PDE)の解法を学習することを提案する。
本手法は,各PDEインスタンスに自動的に適応する勾配降下アルゴリズムの条件付けを学習する。
複数のデータセットに対する経験的実験を通じて,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-09T12:28:32Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - BiLO: Bilevel Local Operator Learning for PDE inverse problems [10.082649871368409]
偏微分方程式(PDE)の逆問題に対する新しいニューラルネットワークに基づく解法を提案する。
上層部ではPDEパラメータに関してデータ損失を最小限に抑える。
低レベルでは、ニューラルネットワークをトレーニングし、与えられたPDEパラメータの集合の近傍でPDEソリューション演算子を局所的に近似する。
論文 参考訳(メタデータ) (2024-04-27T06:06:41Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Bi-level Physics-Informed Neural Networks for PDE Constrained
Optimization using Broyden's Hypergradients [29.487375792661005]
PDE制約最適化問題を解決するための新しい二段階最適化フレームワークを提案する。
内部ループ最適化では、PDE制約のみを解決するためにPINNを採用する。
外部ループに対しては,Implicit関数定理に基づく Broyden'simat 法を用いて新しい手法を設計する。
論文 参考訳(メタデータ) (2022-09-15T06:21:24Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Gradient-enhanced physics-informed neural networks for forward and
inverse PDE problems [2.0062792633909026]
深層学習は物理情報ニューラルネットワーク(PINN)による偏微分方程式(PDE)の解法として有効であることが示されている。
PINNはPDE残基をニューラルネットワークの損失関数に埋め込んでおり、様々な前方および逆PDE問題の解決に成功している。
そこで本研究では, PINNの精度とトレーニング効率を向上させるために, 勾配型物理インフォームドニューラルネットワーク(gPINN)を提案する。
論文 参考訳(メタデータ) (2021-11-01T18:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。