論文の概要: Self-Adaptive Physics-Informed Neural Networks using a Soft Attention
Mechanism
- arxiv url: http://arxiv.org/abs/2009.04544v4
- Date: Wed, 6 Apr 2022 02:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:30:33.846400
- Title: Self-Adaptive Physics-Informed Neural Networks using a Soft Attention
Mechanism
- Title(参考訳): ソフトアテンション機構を用いた自己適応型物理形ニューラルネットワーク
- Authors: Levi McClenny, Ulisses Braga-Neto
- Abstract要約: 非線形偏微分方程式(PDE)の数値解に対するディープニューラルネットワークの有望な応用として、物理情報ニューラルネットワーク(PINN)が登場した。
そこで本研究では,PINNを適応的にトレーニングする方法として,適応重みを完全にトレーニング可能とし,各トレーニングポイントに個別に適用する手法を提案する。
線形および非線形のベンチマーク問題による数値実験では、SA-PINNはL2エラーにおいて他の最先端のPINNアルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) have emerged recently as a promising
application of deep neural networks to the numerical solution of nonlinear
partial differential equations (PDEs). However, it has been recognized that
adaptive procedures are needed to force the neural network to fit accurately
the stubborn spots in the solution of "stiff" PDEs. In this paper, we propose a
fundamentally new way to train PINNs adaptively, where the adaptation weights
are fully trainable and applied to each training point individually, so the
neural network learns autonomously which regions of the solution are difficult
and is forced to focus on them. The self-adaptation weights specify a soft
multiplicative soft attention mask, which is reminiscent of similar mechanisms
used in computer vision. The basic idea behind these SA-PINNs is to make the
weights increase as the corresponding losses increase, which is accomplished by
training the network to simultaneously minimize the losses and maximize the
weights. We show how to build a continuous map of self-adaptive weights using
Gaussian Process regression, which allows the use of stochastic gradient
descent in problems where conventional gradient descent is not enough to
produce accurate solutions. Finally, we derive the Neural Tangent Kernel matrix
for SA-PINNs and use it to obtain a heuristic understanding of the effect of
the self-adaptive weights on the dynamics of training in the limiting case of
infinitely-wide PINNs, which suggests that SA-PINNs work by producing a smooth
equalization of the eigenvalues of the NTK matrix corresponding to the
different loss terms. In numerical experiments with several linear and
nonlinear benchmark problems, the SA-PINN outperformed other state-of-the-art
PINN algorithm in L2 error, while using a smaller number of training epochs.
- Abstract(参考訳): 近年,非線形偏微分方程式(PDE)の数値解に対するディープニューラルネットワークの有望な応用として,物理情報ニューラルネットワーク(PINN)が出現している。
しかし、ニューラルネットワークが「剛性」PDEの解の頑丈な点を正確に適合させるためには適応的な手順が必要であることが認識されている。
本稿では,PINNを適応的にトレーニングする方法として,適応ウェイトを完全にトレーニング可能とし,各トレーニングポイントに個別に適用することにより,解のどの領域が困難であるかを自律的に学習し,それらに集中せざるを得ないニューラルネットワークを提案する。
自己適応重みは、コンピュータビジョンで使用される同様のメカニズムを連想させるソフトな乗法的ソフトアテンションマスクを指定する。
これらのSA-PINNの背後にある基本的な考え方は、損失の増加に応じて重みを増大させることであり、ネットワークをトレーニングして損失を最小化し、重量を最大化する。
ガウス過程回帰を用いて自己適応重みの連続写像を構築する方法を示し、これは従来の勾配勾配が正確な解を生成するのに十分でない問題において確率勾配勾配を利用することができる。
最後に,SA-PINNに対するニューラル・タンジェント・カーネル・マトリックスを導出し,それを用いて,無限大のPINNの制限の場合において,自己適応重みがトレーニングの力学に与える影響のヒューリスティックな理解を得ることにより,異なる損失項に対応するNTK行列の固有値の滑らかな等化を生成することで,SA-PINNが機能することを示唆する。
いくつかの線形および非線形ベンチマーク問題を用いた数値実験において、sa-pinnはl2エラーにおける他の最先端pinnアルゴリズムよりも少ないトレーニングエポックを用いた。
関連論文リスト
- Randomized Forward Mode Gradient for Spiking Neural Networks in Scientific Machine Learning [4.178826560825283]
スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワークの階層的学習能力とスパイクベースの計算のエネルギー効率を組み合わせた、機械学習における有望なアプローチである。
SNNの伝統的なエンドツーエンドトレーニングは、しばしばバックプロパゲーションに基づいており、重み更新はチェーンルールによって計算された勾配から導かれる。
この手法は, 生体適合性に限界があり, ニューロモルフィックハードウェアの非効率性のため, 課題に遭遇する。
本研究では,SNNの代替トレーニング手法を導入する。後方伝搬の代わりに,前方モード内での重量摂動手法を活用する。
論文 参考訳(メタデータ) (2024-11-11T15:20:54Z) - HyResPINNs: Adaptive Hybrid Residual Networks for Learning Optimal Combinations of Neural and RBF Components for Physics-Informed Modeling [22.689531776611084]
我々はHyResPINNと呼ばれる新しいPINNのクラスを提示する。
本手法の重要な特徴は,各残差ブロックに適応的な組み合わせパラメータを組み込むことである。
HyResPINNは従来のPINNよりも、ポイントロケーションやニューラルネットワークアーキテクチャのトレーニングに堅牢であることを示す。
論文 参考訳(メタデータ) (2024-10-04T16:21:14Z) - Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - GPT-PINN: Generative Pre-Trained Physics-Informed Neural Networks toward
non-intrusive Meta-learning of parametric PDEs [0.0]
パラメトリックPDEの設定における課題を緩和するために,GPT-PINN(Generative Pre-Trained PINN)を提案する。
ネットワークのネットワークとして、その外/meta-networkは、ニューロン数が大幅に減少している隠蔽層が1つしかないことで、ハイパーリデュースされる。
メタネットワークは、システムのパラメトリック依存を適応的に学習し、この隠れた1つのニューロンを一度に成長させる。
論文 参考訳(メタデータ) (2023-03-27T02:22:09Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Enhanced Physics-Informed Neural Networks with Augmented Lagrangian
Relaxation Method (AL-PINNs) [1.7403133838762446]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)の解の強力な近似器である
PINN(AL-PINN)のための拡張ラグランジアン緩和法を提案する。
AL-PINNは、最先端の適応的損失分散アルゴリズムと比較して、相対誤差がはるかに小さいことを様々な数値実験で示している。
論文 参考訳(メタデータ) (2022-04-29T08:33:11Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。