論文の概要: CoPhy-PGNN: Learning Physics-guided Neural Networks with Competing Loss
Functions for Solving Eigenvalue Problems
- arxiv url: http://arxiv.org/abs/2007.01420v8
- Date: Thu, 16 Dec 2021 16:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:01:41.986402
- Title: CoPhy-PGNN: Learning Physics-guided Neural Networks with Competing Loss
Functions for Solving Eigenvalue Problems
- Title(参考訳): CoPhy-PGNN:固有値問題の解法と競合する損失関数を持つ物理誘導ニューラルネットワークの学習
- Authors: Mohannad Elhamod, Jie Bu, Christopher Singh, Matthew Redell, Abantika
Ghosh, Viktor Podolskiy, Wei-Cheng Lee, Anuj Karpatne
- Abstract要約: 物理誘導ニューラルネットワーク(PGNN)は、物理誘導(PG)損失関数を用いて訓練される。
競合する勾配方向を持つ複数のPG関数が存在する場合、異なるPG損失関数の寄与を適応的に調整する必要がある。
本稿では、競合するPG損失に対処し、一般化可能な解の学習におけるその有効性を示す新しい手法を提案する。
- 参考スコア(独自算出の注目度): 6.468542942834003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-guided Neural Networks (PGNNs) represent an emerging class of neural
networks that are trained using physics-guided (PG) loss functions (capturing
violations in network outputs with known physics), along with the supervision
contained in data. Existing work in PGNNs has demonstrated the efficacy of
adding single PG loss functions in the neural network objectives, using
constant trade-off parameters, to ensure better generalizability. However, in
the presence of multiple PG functions with competing gradient directions, there
is a need to adaptively tune the contribution of different PG loss functions
during the course of training to arrive at generalizable solutions. We
demonstrate the presence of competing PG losses in the generic neural network
problem of solving for the lowest (or highest) eigenvector of a physics-based
eigenvalue equation, which is commonly encountered in many scientific problems.
We present a novel approach to handle competing PG losses and demonstrate its
efficacy in learning generalizable solutions in two motivating applications of
quantum mechanics and electromagnetic propagation. All the code and data used
in this work is available at https://github.com/jayroxis/Cophy-PGNN.
- Abstract(参考訳): 物理学誘導ニューラルネットワーク(英: Physics-guided Neural Networks、PGNN)は、物理誘導型(PG)損失関数(既知の物理によるネットワーク出力の違反を捉える)を用いて訓練されたニューラルネットワークの新たなクラスである。
PGNNにおける既存の研究は、ニューラルネットワークの目的に1つのPG損失関数を追加し、一定のトレードオフパラメータを使用して、より良い一般化性を保証する効果を実証している。
しかし、競合する勾配方向を持つ複数のPG関数が存在する場合、トレーニング中に異なるPG損失関数の寄与を適応的に調整し、一般化可能な解に到達させる必要がある。
物理学に基づく固有値方程式の最も低い(または最も高い)固有ベクトルを解く汎用ニューラルネットワーク問題において、競合するPG損失の存在を実証する。
量子力学と電磁伝搬の2つの動機付け応用において,競合するpg損失に対処する新しいアプローチを提案し,一般化解の学習にその効果を示す。
この作業で使用されるコードとデータは、https://github.com/jayroxis/Cophy-PGNN.comで公開されている。
関連論文リスト
- GradINN: Gradient Informed Neural Network [2.287415292857564]
物理情報ニューラルネットワーク(PINN)にヒントを得た手法を提案する。
GradINNは、システムの勾配に関する事前の信念を利用して、予測関数の勾配を全ての入力次元にわたって制限する。
非時間依存システムにまたがる多様な問題に対するGradINNの利点を実証する。
論文 参考訳(メタデータ) (2024-09-03T14:03:29Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Physics-Informed Neural Networks: Minimizing Residual Loss with Wide Networks and Effective Activations [5.731640425517324]
特定の条件下では、広いニューラルネットワークによってPINNの残留損失を世界規模で最小化できることを示す。
良好な高次導関数を持つ活性化関数は、残留損失を最小限に抑える上で重要な役割を果たす。
確立された理論は、PINNの効果的な活性化関数の設計と選択の道を開く。
論文 参考訳(メタデータ) (2024-05-02T19:08:59Z) - Physics-guided generative adversarial network to learn physical models [0.0]
このノートには、物理的に妥当なソリューションを学ぶためのディープニューラルネットワーク(DNN)のガイド付きトレーニングの概念が記述されている。
提案モデルは,GANアーキテクチャを用いた物理誘導型生成逆ネットワーク(PG-GAN)である。
論文 参考訳(メタデータ) (2023-04-22T22:43:50Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Characteristics-Informed Neural Networks for Forward and Inverse
Hyperbolic Problems [0.0]
双曲型PDEを含む前方および逆問題に対する特徴情報ニューラルネットワーク(CINN)を提案する。
CINNは、通常のMSEデータ適合回帰損失をトレーニングした汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。
予備的な結果は、CINNがベースラインPINNの精度を改善しつつ、トレーニングの約2倍の速さで非物理的解を回避できることを示している。
論文 参考訳(メタデータ) (2022-12-28T18:38:53Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Physics-Informed Neural Networks for Quantum Eigenvalue Problems [1.2891210250935146]
固有値問題は、科学と工学のいくつかの分野において重要な問題である。
我々は、教師なしニューラルネットワークを用いて、微分固有値問題に対する固有関数と固有値を発見する。
ネットワーク最適化はデータフリーであり、ニューラルネットワークの予測にのみ依存する。
論文 参考訳(メタデータ) (2022-02-24T18:29:39Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。