論文の概要: BWLer: Barycentric Weight Layer Elucidates a Precision-Conditioning Tradeoff for PINNs
- arxiv url: http://arxiv.org/abs/2506.23024v1
- Date: Sat, 28 Jun 2025 22:11:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.672212
- Title: BWLer: Barycentric Weight Layer Elucidates a Precision-Conditioning Tradeoff for PINNs
- Title(参考訳): BWLer: PINNの高精度整合トレードオフを実現するバリ中心重み層
- Authors: Jerry Liu, Yasa Baig, Denise Hui Jean Lee, Rajat Vadiraj Dwaraknath, Atri Rudra, Chris Ré,
- Abstract要約: この精度はPDEの不調や典型的な多層パーセプトロンアーキテクチャによるものであるかを検討する。
BWLer-hatを通じて既存のソリューションの上にBWLerを追加することができる。
BWLerを追加することで,5つのベンチマークPDEの精度が向上することがわかった。
発見は、PINNの柔軟性と古典的なスペクトルソルバの精度を組み合わせるための実践的な道を指す。
- 参考スコア(独自算出の注目度): 7.300596900383335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-informed neural networks (PINNs) offer a flexible way to solve partial differential equations (PDEs) with machine learning, yet they still fall well short of the machine-precision accuracy many scientific tasks demand. In this work, we investigate whether the precision ceiling comes from the ill-conditioning of the PDEs or from the typical multi-layer perceptron (MLP) architecture. We introduce the Barycentric Weight Layer (BWLer), which models the PDE solution through barycentric polynomial interpolation. A BWLer can be added on top of an existing MLP (a BWLer-hat) or replace it completely (explicit BWLer), cleanly separating how we represent the solution from how we take derivatives for the PDE loss. Using BWLer, we identify fundamental precision limitations within the MLP: on a simple 1-D interpolation task, even MLPs with O(1e5) parameters stall around 1e-8 RMSE -- about eight orders above float64 machine precision -- before any PDE terms are added. In PDE learning, adding a BWLer lifts this ceiling and exposes a tradeoff between achievable accuracy and the conditioning of the PDE loss. For linear PDEs we fully characterize this tradeoff with an explicit error decomposition and navigate it during training with spectral derivatives and preconditioning. Across five benchmark PDEs, adding a BWLer on top of an MLP improves RMSE by up to 30x for convection, 10x for reaction, and 1800x for wave equations while remaining compatible with first-order optimizers. Replacing the MLP entirely lets an explicit BWLer reach near-machine-precision on convection, reaction, and wave problems (up to 10 billion times better than prior results) and match the performance of standard PINNs on stiff Burgers' and irregular-geometry Poisson problems. Together, these findings point to a practical path for combining the flexibility of PINNs with the precision of classical spectral solvers.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、機械学習で偏微分方程式(PDE)を解く柔軟な方法を提供するが、多くの科学的タスクが要求する機械精度の精度には十分達していない。
本研究では,PDEの条件が不適切な場合や,一般的な多層パーセプトロン(MLP)アーキテクチャによる場合について検討する。
Barycentric Weight Layer (BWLer) を導入し, 偏心多項式補間によるPDE解のモデル化を行う。
BWLerは、既存のMLP(BWLer-hat)の上に追加したり、完全に置き換えたりできます(BWLerを例示します)。
単純な1次元補間タスクでは、O(1e5)パラメータを持つMLPでさえ、1e-8 RMSE(float64マシン精度の約8桁)で停止し、PDE項を追加する前に停止する。
PDE学習では、BWLerの追加がこの天井を持ち上げ、達成可能な精度とPDE損失の条件付けとのトレードオフを露呈する。
線形PDEでは、このトレードオフを明示的なエラー分解で完全に特徴付け、スペクトル微分とプレコンディショニングによるトレーニング中にそれをナビゲートする。
5つのベンチマークPDEで、MLPの上にBWLerを追加することで、RMSEを対流の最大30倍、反応の10倍、波動方程式の1800倍改善し、一階オプティマイザとの互換性を維持した。
MLPを完全に置き換えることで、明示的なBWLerは対流、反応、波動問題(以前の結果の最大100億倍の精度)でほぼ機械的精度に達することができ、バーガースの硬いポアソン問題と不規則な幾何学的ポアソン問題に対する標準のPINNの性能と一致する。
これらの知見は、PINNの柔軟性と古典的スペクトル解法の精度を併用する実践的な方法を示している。
関連論文リスト
- PIG: Physics-Informed Gaussians as Adaptive Parametric Mesh Representations [5.4087282763977855]
本稿では,ガウス関数を用いた特徴埋め込みと軽量ニューラルネットワークを組み合わせた物理インフォームドガウス(PIG)を提案する。
提案手法では,各ガウス平均と分散にトレーニング可能なパラメータを用い,トレーニング中の位置と形状を動的に調整する。
実験の結果,複雑なPDEを解くための堅牢なツールとしての可能性を示した。
論文 参考訳(メタデータ) (2024-12-08T16:58:29Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - On the Compatibility between Neural Networks and Partial Differential
Equations for Physics-informed Learning [0.0]
私たちは、落とし穴と物理インフォームドニューラルネットワーク(PINN)の機会に光を当てた。
我々は、ReLU(Rectified Linear Unit)やReLUライクなリプシッツ活性化関数のみを持つ多層パーセプトロン(MLP)が、常に消滅したヘッセンへと導くことを証明した。
この落とし穴に触発されて、$n$-階までの線形PDEが、外層超平面によって厳密に満足できることを証明した。
論文 参考訳(メタデータ) (2022-12-01T04:27:48Z) - Meta-PDE: Learning to Solve PDEs Quickly Without a Mesh [24.572840023107574]
偏微分方程式(PDE)は、しばしば計算的に解くのが難しい。
本稿では,関連するPDEの分布から,問題の迅速な解法を学習するメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T06:17:52Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。