論文の概要: Efficient Decremental Learning Algorithms for Broad Learning System
- arxiv url: http://arxiv.org/abs/1912.13169v1
- Date: Tue, 31 Dec 2019 04:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:14:46.458277
- Title: Efficient Decremental Learning Algorithms for Broad Learning System
- Title(参考訳): 広範学習システムのための効率的な分数学習アルゴリズム
- Authors: Hufei Zhu
- Abstract要約: 削除された学習アルゴリズムは、機械学習において必要であり、冗長なノードをプルークし、古いインライントレーニングサンプルを削除する。
加算ノードに対して[9]に提案された増分学習アルゴリズム1から、冗長ノードをプルーする効率的な復号学習アルゴリズムを導出する。
追加入力に対して[10]で提案した2つのインクリメンタル学習アルゴリズムから、トレーニングサンプルを除去する2つの分解学習アルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The decremented learning algorithms are required in machine learning, to
prune redundant nodes and remove obsolete inline training samples. In this
paper, an efficient decremented learning algorithm to prune redundant nodes is
deduced from the incremental learning algorithm 1 proposed in [9] for added
nodes, and two decremented learning algorithms to remove training samples are
deduced from the two incremental learning algorithms proposed in [10] for added
inputs. The proposed decremented learning algorithm for reduced nodes utilizes
the inverse Cholesterol factor of the Herminia matrix in the ridge inverse, to
update the output weights recursively, as the incremental learning algorithm 1
for added nodes in [9], while that inverse Cholesterol factor is updated with
an unitary transformation. The proposed decremented learning algorithm 1 for
reduced inputs updates the output weights recursively with the inverse of the
Herminia matrix in the ridge inverse, and updates that inverse recursively, as
the incremental learning algorithm 1 for added inputs in [10].
- Abstract(参考訳): 不要な学習アルゴリズムは、冗長なノードを敬遠し、廃れたインライントレーニングサンプルを削除するために、機械学習で必要となる。
本稿では、追加ノードの[9]に提案された増分学習アルゴリズム1から冗長ノードをプルーする効率的な復分学習アルゴリズムを導出し、[10]に提案した2つの増分学習アルゴリズムからトレーニングサンプルを除去する2つの復分学習アルゴリズムを導出する。
削減ノードに対する復調学習アルゴリズムは、尾根内のHerminia行列の逆コレステロール因子を用いて、[9]に加算ノードに対する増分学習アルゴリズム1として出力重みを再帰的に更新し、逆コレステロール因子をユニタリ変換で更新する。
入力を減少させる除算学習アルゴリズム1は、尾根逆数におけるHerminia行列の逆数と再帰的に出力重みを更新し、[10]に入力を追加するインクリメンタル学習アルゴリズム1として逆転的に更新する。
関連論文リスト
- Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Quantum Algorithms for Prediction Based on Ridge Regression [0.7612218105739107]
本稿では,リッジ回帰モデルに基づく量子アルゴリズムを提案する。
提案アルゴリズムは幅広い応用範囲を持ち,提案アルゴリズムは他の量子アルゴリズムのサブルーチンとして利用することができる。
論文 参考訳(メタデータ) (2021-04-27T11:03:52Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Efficient Inverse-Free Incremental and Decremental Algorithms for
Multiple Hidden Nodes in Extreme Learning Machine [0.0]
本稿では,Tikhonov正則化を用いたEMMのための2つの逆フリーアルゴリズムを提案する。
また,Tikhonov正則化を用いたEMMのための2つの効率的な除算学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-27T07:04:41Z) - Accelerated learning algorithms of general fuzzy min-max neural network
using a novel hyperbox selection rule [9.061408029414455]
本稿では,一般ファジィmin-maxニューラルネットワークの学習過程を高速化する手法を提案する。
提案手法は分岐結合解を形成する数学的公式に基づいている。
実験結果から,オンライン学習アルゴリズムと集約学習アルゴリズムの両方において,提案手法の学習時間の大幅な短縮が示された。
論文 参考訳(メタデータ) (2020-03-25T11:26:18Z) - Efficient improper learning for online logistic regression [68.8204255655161]
サンプル数 n の対数的後悔を持つ任意の正則アルゴリズムは、必然的に B の指数乗法定数を損なうことが知られている。
本研究では、対数的後悔を保ちながら、この指数定数を回避する効率的な不適切なアルゴリズムを設計する。
シュロゲート損失を伴う正規化経験的リスク最小化に基づく新しいアルゴリズムは、O(B log(Bn))として、オーダーO(d2)の1回あたりの時間複雑度で、後悔のスケーリングを満足させる。
論文 参考訳(メタデータ) (2020-03-18T09:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。