論文の概要: Neural Networks Based on Power Method and Inverse Power Method for
Solving Linear Eigenvalue Problems
- arxiv url: http://arxiv.org/abs/2209.11134v5
- Date: Sun, 16 Jul 2023 01:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 00:29:17.856840
- Title: Neural Networks Based on Power Method and Inverse Power Method for
Solving Linear Eigenvalue Problems
- Title(参考訳): 線形固有値問題を解くためのパワー法と逆パワー法に基づくニューラルネットワーク
- Authors: Qihong Yang, Yangtao Deng, Yu Yang, Qiaolin He, Shiquan Zhang
- Abstract要約: 本稿では,線形固有値問題の解法として,電力法と逆電力法に着想を得た2種類のニューラルネットワークを提案する。
固有値問題の固有関数はニューラルネットワークによって学習される。
本手法により,正確な固有値と固有関数近似が得られることを示す。
- 参考スコア(独自算出の注目度): 4.3209899858935366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article, we propose two kinds of neural networks inspired by power
method and inverse power method to solve linear eigenvalue problems. These
neural networks share similar ideas with traditional methods, in which the
differential operator is realized by automatic differentiation. The
eigenfunction of the eigenvalue problem is learned by the neural network and
the iterative algorithms are implemented by optimizing the specially defined
loss function. The largest positive eigenvalue, smallest eigenvalue and
interior eigenvalues with the given prior knowledge can be solved efficiently.
We examine the applicability and accuracy of our methods in the numerical
experiments in one dimension, two dimensions and higher dimensions. Numerical
results show that accurate eigenvalue and eigenfunction approximations can be
obtained by our methods.
- Abstract(参考訳): 本稿では,線形固有値問題の解法として,電力法と逆電力法にヒントを得た2種類のニューラルネットワークを提案する。
これらのニューラルネットワークは、微分作用素が自動微分によって実現される従来の手法と同様のアイデアを共有している。
固有値問題の固有関数をニューラルネットワークで学習し、特別に定義された損失関数を最適化して反復アルゴリズムを実装する。
与えられた事前知識を持つ最大の正の固有値、最小の固有値および内部固有値を効率的に解くことができる。
本研究では,1次元,2次元,高次元の数値実験における手法の適用性と精度について検討する。
数値計算の結果, 高精度固有値近似と固有関数近似が得られた。
関連論文リスト
- Distributed Cooperative AI for Large-Scale Eigenvalue Computations Using Neural Networks [0.0]
本稿では,分散協調型ニューラルネットワークを用いた固有値計算手法を提案する。
我々のアルゴリズムは、複数の自律エージェントが大きな行列の最小固有値を協調的に推定することを可能にする。
論文 参考訳(メタデータ) (2024-09-10T09:26:55Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Physics-Informed Neural Networks for Quantum Eigenvalue Problems [1.2891210250935146]
固有値問題は、科学と工学のいくつかの分野において重要な問題である。
我々は、教師なしニューラルネットワークを用いて、微分固有値問題に対する固有関数と固有値を発見する。
ネットワーク最適化はデータフリーであり、ニューラルネットワークの予測にのみ依存する。
論文 参考訳(メタデータ) (2022-02-24T18:29:39Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Supervised learning in Hamiltonian reconstruction from local
measurements on eigenstates [0.45880283710344055]
固有状態の測定を通じてハミルトニアン系を再構成することは、量子物理学において重要な逆問題である。
本研究では,この問題をより深く議論し,ニューラルネットワークによる教師あり学習手法を適用した。
論文 参考訳(メタデータ) (2020-07-12T11:37:17Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z) - Solving high-dimensional eigenvalue problems using deep neural networks:
A diffusion Monte Carlo like approach [14.558626910178127]
固有値問題は、演算子によって誘導される半群フローの固定点問題として再構成される。
この方法は拡散モンテカルロと同様の精神を持つが、ニューラル・ネットワーク・アンサッツによる固有関数への直接近似を増大させる。
我々の手法はいくつかの数値例で正確な固有値と固有関数の近似を提供することができる。
論文 参考訳(メタデータ) (2020-02-07T03:08:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。