論文の概要: Power Method, Inverse Power Method and Shifted Inverse Power Method
Neural Networks for Solving Eigenvalue Problems of Linear Operators
- arxiv url: http://arxiv.org/abs/2209.11134v1
- Date: Thu, 22 Sep 2022 16:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 14:26:44.992609
- Title: Power Method, Inverse Power Method and Shifted Inverse Power Method
Neural Networks for Solving Eigenvalue Problems of Linear Operators
- Title(参考訳): 線形演算子の固有値問題の解法のための電力法・逆電力法・シフト逆電力法ニューラルネットワーク
- Authors: Qihong Yang, Yangtao Deng, Yu Yang, Qiaolin He, Shiquan Zhang
- Abstract要約: 支配的固有値,最小固有値,最小零固有値を用いた固有値問題の解法を提案する。
手法は従来の手法と類似の精神を共有しているが、違いは、自動微分(AD)によって実現された微分演算子と、特別に定義された損失関数を最適化して実装された反復である。
多次元問題の数値計算により, 精度の高い固有値および固有関数近似が得られた。
- 参考スコア(独自算出の注目度): 4.3209899858935366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article, we propose three methods Power Method Neural Network (PMNN),
Inverse Power Method Neural Networ (IPMNN) and Shifted Inverse Power Method
Neural Network (SIPMNN) combined with power method, inverse power method and
shifted inverse power method to solve eigenvalue problems with the dominant
eigenvalue, the smallest eigenvalue and the smallest zero eigenvalue,
respectively. The methods share similar spirits with traditional methods, but
the differences are the differential operator realized by Automatic
Differentiation (AD), the eigenfunction learned by the neural network and the
iterations implemented by optimizing the specially defined loss function. We
examine the applicability and accuracy of our methods in several numerical
examples in high dimensions. Numerical results obtained by our methods for
multidimensional problems show that our methods can provide accurate eigenvalue
and eigenfunction approximations.
- Abstract(参考訳): 本稿では,主固有値,最小固有値,最小零固有値の3つの固有値問題を解くために,パワー法,逆パワー法ニューラルネットワーク(pmnn),逆パワー法ニューラルネットワーク(ipmnn),シフト逆パワー法ニューラルネットワーク(sipmnn)とパワー法を組み合わせた3つの逆パワー法ニューラルネットワーク(sipmnn)を提案する。
従来の手法と類似した精神を持つが、違いは、自動微分(ad)によって実現される微分演算子、ニューラルネットワークが学習した固有関数、特殊に定義された損失関数を最適化した反復である。
本手法の適用性と精度を,高次元におけるいくつかの数値例で検証する。
多次元問題に対する本手法により得られた数値結果は, 固有値および固有関数近似を精度良く提供できることを示す。
関連論文リスト
- Distributed Cooperative AI for Large-Scale Eigenvalue Computations Using Neural Networks [0.0]
本稿では,分散協調型ニューラルネットワークを用いた固有値計算手法を提案する。
我々のアルゴリズムは、複数の自律エージェントが大きな行列の最小固有値を協調的に推定することを可能にする。
論文 参考訳(メタデータ) (2024-09-10T09:26:55Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Physics-Informed Neural Networks for Quantum Eigenvalue Problems [1.2891210250935146]
固有値問題は、科学と工学のいくつかの分野において重要な問題である。
我々は、教師なしニューラルネットワークを用いて、微分固有値問題に対する固有関数と固有値を発見する。
ネットワーク最適化はデータフリーであり、ニューラルネットワークの予測にのみ依存する。
論文 参考訳(メタデータ) (2022-02-24T18:29:39Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Supervised learning in Hamiltonian reconstruction from local
measurements on eigenstates [0.45880283710344055]
固有状態の測定を通じてハミルトニアン系を再構成することは、量子物理学において重要な逆問題である。
本研究では,この問題をより深く議論し,ニューラルネットワークによる教師あり学習手法を適用した。
論文 参考訳(メタデータ) (2020-07-12T11:37:17Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z) - Solving high-dimensional eigenvalue problems using deep neural networks:
A diffusion Monte Carlo like approach [14.558626910178127]
固有値問題は、演算子によって誘導される半群フローの固定点問題として再構成される。
この方法は拡散モンテカルロと同様の精神を持つが、ニューラル・ネットワーク・アンサッツによる固有関数への直接近似を増大させる。
我々の手法はいくつかの数値例で正確な固有値と固有関数の近似を提供することができる。
論文 参考訳(メタデータ) (2020-02-07T03:08:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。