論文の概要: Rethinking the Importance of Sampling in Physics-informed Neural
Networks
- arxiv url: http://arxiv.org/abs/2207.02338v1
- Date: Tue, 5 Jul 2022 22:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 12:50:51.234574
- Title: Rethinking the Importance of Sampling in Physics-informed Neural
Networks
- Title(参考訳): 物理インフォームドニューラルネットワークにおけるサンプリングの重要性の再考
- Authors: Arka Daw, Jie Bu, Sifan Wang, Paris Perdikaris, Anuj Karpatne
- Abstract要約: PINNの性能は,異なるサンプリング戦略で大きく異なることを示す。
本研究では,高PDE残基領域におけるコロケーション点を漸進的に蓄積できる新しいテキスト進化サンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 8.147198294451151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) have emerged as a powerful tool for
solving partial differential equations (PDEs) in a variety of domains. While
previous research in PINNs has mainly focused on constructing and balancing
loss functions during training to avoid poor minima, the effect of sampling
collocation points on the performance of PINNs has largely been overlooked. In
this work, we find that the performance of PINNs can vary significantly with
different sampling strategies, and using a fixed set of collocation points can
be quite detrimental to the convergence of PINNs to the correct solution. In
particular, (1) we hypothesize that training of PINNs rely on successful
"propagation" of solution from initial and/or boundary condition points to
interior points, and PINNs with poor sampling strategies can get stuck at
trivial solutions if there are \textit{propagation failures}. (2) We
demonstrate that propagation failures are characterized by highly imbalanced
PDE residual fields where very high residuals are observed over very narrow
regions. (3) To mitigate propagation failure, we propose a novel
\textit{evolutionary sampling} (Evo) method that can incrementally accumulate
collocation points in regions of high PDE residuals. We further provide an
extension of Evo to respect the principle of causality while solving
time-dependent PDEs. We empirically demonstrate the efficacy and efficiency of
our proposed methods in a variety of PDE problems.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、様々な領域で偏微分方程式(PDE)を解く強力なツールとして登場した。
PINNにおける従来の研究は、低最小化を避けるため、トレーニング中の損失関数の構築とバランスのバランスに重点を置いていたが、PINNの性能に対するコロケーション点のサンプリングの効果は概ね見過ごされている。
本研究では, PINNの性能は異なるサンプリング戦略で大きく変化し, 固定されたコロケーション点を用いると, PINNの正しい解への収束にかなり寄与することがわかった。
特に, PINNのトレーニングは, 初期および/または境界条件点から内部点への解の「伝播」に頼っていると仮定し, 「textit{propagation failures} が存在する場合, サンプリング戦略が不十分なPINNは, 自明な解で立ち往生する可能性があると仮定する。
2) 伝播不良は, 非常に狭い領域で非常に高い残差が観測される高度に不均衡なPDE残差場によって特徴づけられる。
(3) 伝搬不良を緩和するために, 高PDE残基の領域におけるコロケーション点を漸進的に蓄積できる新しい<textit{evolutionary sample} (Evo) 法を提案する。
さらに,時間依存型pdesを解きながら因果性の原理を尊重するevoの拡張も提供する。
種々のPDE問題において提案手法の有効性と効率を実証的に実証した。
関連論文リスト
- Beyond Derivative Pathology of PINNs: Variable Splitting Strategy with Convergence Analysis [6.468495781611434]
物理インフォームドニューラルネットワーク(PINN)は、様々な問題において偏微分方程式(PDE)を解く効果的な方法として登場した。
本研究では,PINNが前提が無効であるという根本的な問題に直面していることを証明する。
本稿では,解の勾配を補助変数としてパラメータ化することで,この問題に対処するテキスト可変分割戦略を提案する。
論文 参考訳(メタデータ) (2024-09-30T15:20:10Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - A unified scalable framework for causal sweeping strategies for
Physics-Informed Neural Networks (PINNs) and their temporal decompositions [22.514769448363754]
PINNとXPINNの時間依存型PDEのトレーニング課題について論じる。
PINNとXPINNのギャップを埋める新しい積み重ね分解法を提案する。
また,従来のPINNの因果性にインスパイアされた新しいタイムスウィーピング・コロケーション・ポイント・アルゴリズムを定式化した。
論文 参考訳(メタデータ) (2023-02-28T01:19:21Z) - A Novel Adaptive Causal Sampling Method for Physics-Informed Neural
Networks [35.25394937917774]
インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の解を得るための魅力的な機械学習手法である。
適応サンプリングに時間因果性を導入し,PINの性能と効率を向上させるための適応因果サンプリング手法を提案する。
本研究では, 比較的単純なサンプリング手法を用いることで, 予測性能を2桁まで向上できることを実証した。
論文 参考訳(メタデータ) (2022-10-24T01:51:08Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Multi-Objective Loss Balancing for Physics-Informed Deep Learning [0.0]
PINNを効果的に訓練するために、複数の競合損失関数の組み合わせを正しく重み付けする役割を観察する。
本稿では,ReLoBRaLoと呼ばれるPINNの自己適応的損失分散を提案する。
シミュレーションにより、ReLoBRaLoトレーニングは、他のバランシング手法によるPINNのトレーニングよりもはるかに高速で精度の高いことが示されている。
論文 参考訳(メタデータ) (2021-10-19T09:00:12Z) - Error analysis for physics informed neural networks (PINNs)
approximating Kolmogorov PDEs [0.0]
PINNによる大規模な放物型PDEの解の近似における誤差の厳密な境界を導出する。
PINN残差(一般化誤差)を所望の程度小さくできるニューラルネットワークを構築する。
これらの結果から,Kolmogorov PDEの近似におけるPINNの総合的誤差解析が可能となった。
論文 参考訳(メタデータ) (2021-06-28T08:37:56Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。