論文の概要: CoPhy-PGNN: Learning Physics-guided Neural Networks with Competing Loss
Functions for Solving Eigenvalue Problems
- arxiv url: http://arxiv.org/abs/2007.01420v8
- Date: Thu, 16 Dec 2021 16:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:01:41.986402
- Title: CoPhy-PGNN: Learning Physics-guided Neural Networks with Competing Loss
Functions for Solving Eigenvalue Problems
- Title(参考訳): CoPhy-PGNN:固有値問題の解法と競合する損失関数を持つ物理誘導ニューラルネットワークの学習
- Authors: Mohannad Elhamod, Jie Bu, Christopher Singh, Matthew Redell, Abantika
Ghosh, Viktor Podolskiy, Wei-Cheng Lee, Anuj Karpatne
- Abstract要約: 物理誘導ニューラルネットワーク(PGNN)は、物理誘導(PG)損失関数を用いて訓練される。
競合する勾配方向を持つ複数のPG関数が存在する場合、異なるPG損失関数の寄与を適応的に調整する必要がある。
本稿では、競合するPG損失に対処し、一般化可能な解の学習におけるその有効性を示す新しい手法を提案する。
- 参考スコア(独自算出の注目度): 6.468542942834003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-guided Neural Networks (PGNNs) represent an emerging class of neural
networks that are trained using physics-guided (PG) loss functions (capturing
violations in network outputs with known physics), along with the supervision
contained in data. Existing work in PGNNs has demonstrated the efficacy of
adding single PG loss functions in the neural network objectives, using
constant trade-off parameters, to ensure better generalizability. However, in
the presence of multiple PG functions with competing gradient directions, there
is a need to adaptively tune the contribution of different PG loss functions
during the course of training to arrive at generalizable solutions. We
demonstrate the presence of competing PG losses in the generic neural network
problem of solving for the lowest (or highest) eigenvector of a physics-based
eigenvalue equation, which is commonly encountered in many scientific problems.
We present a novel approach to handle competing PG losses and demonstrate its
efficacy in learning generalizable solutions in two motivating applications of
quantum mechanics and electromagnetic propagation. All the code and data used
in this work is available at https://github.com/jayroxis/Cophy-PGNN.
- Abstract(参考訳): 物理学誘導ニューラルネットワーク(英: Physics-guided Neural Networks、PGNN)は、物理誘導型(PG)損失関数(既知の物理によるネットワーク出力の違反を捉える)を用いて訓練されたニューラルネットワークの新たなクラスである。
PGNNにおける既存の研究は、ニューラルネットワークの目的に1つのPG損失関数を追加し、一定のトレードオフパラメータを使用して、より良い一般化性を保証する効果を実証している。
しかし、競合する勾配方向を持つ複数のPG関数が存在する場合、トレーニング中に異なるPG損失関数の寄与を適応的に調整し、一般化可能な解に到達させる必要がある。
物理学に基づく固有値方程式の最も低い(または最も高い)固有ベクトルを解く汎用ニューラルネットワーク問題において、競合するPG損失の存在を実証する。
量子力学と電磁伝搬の2つの動機付け応用において,競合するpg損失に対処する新しいアプローチを提案し,一般化解の学習にその効果を示す。
この作業で使用されるコードとデータは、https://github.com/jayroxis/Cophy-PGNN.comで公開されている。
関連論文リスト
- Physics-guided generative adversarial network to learn physical models [0.0]
このノートには、物理的に妥当なソリューションを学ぶためのディープニューラルネットワーク(DNN)のガイド付きトレーニングの概念が記述されている。
提案モデルは,GANアーキテクチャを用いた物理誘導型生成逆ネットワーク(PG-GAN)である。
論文 参考訳(メタデータ) (2023-04-22T22:43:50Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Characteristics-Informed Neural Networks for Forward and Inverse
Hyperbolic Problems [0.0]
双曲型PDEを含む前方および逆問題に対する特徴情報ニューラルネットワーク(CINN)を提案する。
CINNは、通常のMSEデータ適合回帰損失をトレーニングした汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。
予備的な結果は、CINNがベースラインPINNの精度を改善しつつ、トレーニングの約2倍の速さで非物理的解を回避できることを示している。
論文 参考訳(メタデータ) (2022-12-28T18:38:53Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Critical Investigation of Failure Modes in Physics-informed Neural
Networks [0.9137554315375919]
合成定式化による物理インフォームドニューラルネットワークは、最適化が難しい非学習損失面を生成することを示す。
また,2つの楕円問題に対する2つのアプローチを,より複雑な目標解を用いて評価する。
論文 参考訳(メタデータ) (2022-06-20T18:43:35Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Physics-Informed Neural Networks for Quantum Eigenvalue Problems [1.2891210250935146]
固有値問題は、科学と工学のいくつかの分野において重要な問題である。
我々は、教師なしニューラルネットワークを用いて、微分固有値問題に対する固有関数と固有値を発見する。
ネットワーク最適化はデータフリーであり、ニューラルネットワークの予測にのみ依存する。
論文 参考訳(メタデータ) (2022-02-24T18:29:39Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Self-Adaptive Physics-Informed Neural Networks using a Soft Attention
Mechanism [0.0]
非線形偏微分方程式(PDE)の数値解に対するディープニューラルネットワークの有望な応用として、物理情報ニューラルネットワーク(PINN)が登場した。
そこで本研究では,PINNを適応的にトレーニングする方法として,適応重みを完全にトレーニング可能とし,各トレーニングポイントに個別に適用する手法を提案する。
線形および非線形のベンチマーク問題による数値実験では、SA-PINNはL2エラーにおいて他の最先端のPINNアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-09-07T04:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。