論文の概要: Efficient Inverse-Free Incremental and Decremental Algorithms for
Multiple Hidden Nodes in Extreme Learning Machine
- arxiv url: http://arxiv.org/abs/2004.13023v1
- Date: Mon, 27 Apr 2020 07:04:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:35:37.723575
- Title: Efficient Inverse-Free Incremental and Decremental Algorithms for
Multiple Hidden Nodes in Extreme Learning Machine
- Title(参考訳): 極端学習機械における複数の隠れノードに対する効率的な逆フリーインクリメンタル・デクリメンタルアルゴリズム
- Authors: Hufei Zhu
- Abstract要約: 本稿では,Tikhonov正則化を用いたEMMのための2つの逆フリーアルゴリズムを提案する。
また,Tikhonov正則化を用いたEMMのための2つの効率的な除算学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The inverse-free extreme learning machine (ELM) algorithm proposed in [4] was
based on an inverse-free algorithm to compute the regularized pseudo-inverse,
which was deduced from an inverse-free recursive algorithm to update the
inverse of a Hermitian matrix. Before that recursive algorithm was applied in
[4], its improved version had been utilized in previous literatures [9], [10].
Accordingly from the improved recursive algorithm [9], [10], several efficient
inverse-free algorithms for ELM were proposed in [13] to reduce the
computational complexity. In this paper, we propose two inverse-free algorithms
for ELM with Tikhonov regularization, which can increase multiple hidden nodes
in an iteration. On the other hand, we also propose two efficient decremental
learning algorithms for ELM with Tikhonov regularization, which can remove
multiple redundant nodes in an iteration.
- Abstract(参考訳): 4] で提案されている逆フリーエクストリームラーニングマシン (inverse-free extreme learning machine, elm) アルゴリズムは、逆フリーな再帰的アルゴリズムから導出され、エルミート行列の逆数を更新する正規化擬似逆数を計算する逆フリーアルゴリズムに基づいている。
その再帰的アルゴリズムが [4] に適用される前に、その改良版は以前の文献 [9], [10] で利用されていた。
改良された再帰アルゴリズム [9], [10] から, [13] において計算複雑性を低減するために, ELM の効率的な逆フリーアルゴリズムが提案された。
本稿では,tikhonov正規化を伴うelmの逆フリーな2つのアルゴリズムを提案する。
一方,tikhonov正則化を用いたelmのための2つの効率的なデクリメント学習アルゴリズムを提案する。
関連論文リスト
- An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - A fast Multiplicative Updates algorithm for Non-negative Matrix Factorization [2.646309221150203]
本稿では,各サブプロブレムに対してヘッセン行列のより厳密な上界を構築することにより,乗法更新アルゴリズムの改善を提案する。
コンバージェンスはまだ保証されており、我々は実際に合成と実世界の両方のデータセットで、提案したfastMUアルゴリズムが通常の乗算更新アルゴリズムよりも数桁高速であることを示す。
論文 参考訳(メタデータ) (2023-03-31T12:09:36Z) - Classical and Quantum Iterative Optimization Algorithms Based on Matrix
Legendre-Bregman Projections [1.5736899098702972]
エルミート行列空間上で定義されたルジャンドル・ブレーグマン射影について考察し,それに基づいて反復最適化アルゴリズムを設計する。
本稿では,ブレグマン射影アルゴリズムと近似的ブラグマン射影アルゴリズムについて検討する。
特に、近似反復アルゴリズムは、最大エントロピー推論のための一般化反復スケーリング(GIS)アルゴリズムの非可換バージョンをもたらす。
論文 参考訳(メタデータ) (2022-09-28T15:59:08Z) - Gaussian Elimination versus Greedy Methods for the Synthesis of Linear
Reversible Circuits [0.0]
可逆回路は、量子コンピューティングに多くの応用がある可逆回路のサブクラスを表す。
ガウス除去アルゴリズムの最適化版と調整LU分解を用いて,任意の線形可逆作用素に対する新しいアルゴリズムを提案する。
全体として、我々のアルゴリズムは特定の問題サイズに対する最先端の手法を改善している。
論文 参考訳(メタデータ) (2022-01-17T16:31:42Z) - A Fully Single Loop Algorithm for Bilevel Optimization without Hessian
Inverse [121.54116938140754]
両レベル最適化問題に対して,Hessian 逆フリーな完全単一ループアルゴリズムを提案する。
我々のアルゴリズムは$O(epsilon-2)$と収束することを示す。
論文 参考訳(メタデータ) (2021-12-09T02:27:52Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Learned Block Iterative Shrinkage Thresholding Algorithm for
Photothermal Super Resolution Imaging [52.42007686600479]
深層ニューラルネットワークに展開する反復アルゴリズムを用いて,学習したブロックスパース最適化手法を提案する。
本稿では、正規化パラメータの選択を学ぶことができる学習ブロック反復収縮しきい値アルゴリズムを使用することの利点を示す。
論文 参考訳(メタデータ) (2020-12-07T09:27:16Z) - DeepMP for Non-Negative Sparse Decomposition [14.790515227906257]
非負の信号はスパース信号の重要なクラスを形成する。
greedyとconvexの緩和アルゴリズムは、最も人気のある方法のひとつです。
このような修正の1つは、Matching Pursuit (MP) ベースのアルゴリズムのために提案されている。
論文 参考訳(メタデータ) (2020-07-28T14:52:06Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Efficient Decremental Learning Algorithms for Broad Learning System [0.0]
削除された学習アルゴリズムは、機械学習において必要であり、冗長なノードをプルークし、古いインライントレーニングサンプルを削除する。
加算ノードに対して[9]に提案された増分学習アルゴリズム1から、冗長ノードをプルーする効率的な復号学習アルゴリズムを導出する。
追加入力に対して[10]で提案した2つのインクリメンタル学習アルゴリズムから、トレーニングサンプルを除去する2つの分解学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2019-12-31T04:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。