論文の概要: Accelerated learning algorithms of general fuzzy min-max neural network
using a novel hyperbox selection rule
- arxiv url: http://arxiv.org/abs/2003.11333v2
- Date: Tue, 19 May 2020 10:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:47:36.261061
- Title: Accelerated learning algorithms of general fuzzy min-max neural network
using a novel hyperbox selection rule
- Title(参考訳): 新しいハイパーボックス選択規則を用いた一般ファジィmin-maxニューラルネットワークの高速化学習アルゴリズム
- Authors: Thanh Tung Khuat and Bogdan Gabrys
- Abstract要約: 本稿では,一般ファジィmin-maxニューラルネットワークの学習過程を高速化する手法を提案する。
提案手法は分岐結合解を形成する数学的公式に基づいている。
実験結果から,オンライン学習アルゴリズムと集約学習アルゴリズムの両方において,提案手法の学習時間の大幅な短縮が示された。
- 参考スコア(独自算出の注目度): 9.061408029414455
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes a method to accelerate the training process of a general
fuzzy min-max neural network. The purpose is to reduce the unsuitable
hyperboxes selected as the potential candidates of the expansion step of
existing hyperboxes to cover a new input pattern in the online learning
algorithms or candidates of the hyperbox aggregation process in the
agglomerative learning algorithms. Our proposed approach is based on the
mathematical formulas to form a branch-and-bound solution aiming to remove the
hyperboxes which are certain not to satisfy expansion or aggregation
conditions, and in turn, decreasing the training time of learning algorithms.
The efficiency of the proposed method is assessed over a number of widely used
data sets. The experimental results indicated the significant decrease in
training time of the proposed approach for both online and agglomerative
learning algorithms. Notably, the training time of the online learning
algorithms is reduced from 1.2 to 12 times when using the proposed method,
while the agglomerative learning algorithms are accelerated from 7 to 37 times
on average.
- Abstract(参考訳): 本稿では,一般ファジィmin-maxニューラルネットワークの学習過程を高速化する手法を提案する。
その目的は、既存のハイパーボックスの拡張ステップの候補として選択された不適切なハイパーボックスを削減し、オンライン学習アルゴリズムの新たな入力パターンや凝集学習アルゴリズムのハイパーボックス集約プロセスの候補をカバーすることである。
提案手法は,拡張条件や集約条件を確実に満たさないハイパーボックスを除去し,学習アルゴリズムの学習時間を短縮することを目的とした分岐境界解の数学的公式に基づく。
提案手法の効率性は,多くの広く利用されているデータセットで評価される。
実験の結果,オンライン学習アルゴリズムと凝集学習アルゴリズムの両方において,提案手法の学習時間が有意に短縮された。
特に、オンライン学習アルゴリズムの学習時間は、提案手法を用いた場合の1.2倍から12倍に短縮され、凝集学習アルゴリズムは平均で7倍から37倍に高速化される。
関連論文リスト
- Learning Rate Optimization for Deep Neural Networks Using Lipschitz Bandits [9.361762652324968]
適切に調整された学習率によって、より高速なトレーニングとテストの精度が向上する。
本稿では,ニューラルネットワークの学習速度を調整するためのLipschitz bandit-drivenアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-15T16:21:55Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Gradient-only line searches to automatically determine learning rates
for a variety of stochastic training algorithms [0.0]
Inexact (GOLS-I) である Gradient-Only Line Search を用いて、ニューラルネットワークトレーニングアルゴリズムの選択のための学習率スケジュールを決定する。
GOLS-Iの学習率スケジュールは、手動で調整された学習率、最適化アルゴリズム7以上、ニューラルネットワークアーキテクチャ3タイプ、データセット23、損失関数2つと競合する。
論文 参考訳(メタデータ) (2020-06-29T08:59:31Z) - Enhancing accuracy of deep learning algorithms by training with
low-discrepancy sequences [15.2292571922932]
トレーニングセットとして低差分シーケンスに基づく深層教師付き学習アルゴリズムを提案する。
提案アルゴリズムは, 適度な高次元の問題に対して, 標準的なディープラーニングアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-26T08:14:00Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - An improved online learning algorithm for general fuzzy min-max neural
network [11.631815277762257]
本稿では,一般ファジィmin-maxニューラルネット(GFMM)のための現在のオンライン学習アルゴリズムの改良版を提案する。
提案手法では、重なり合うハイパーボックスの収縮過程は使用せず、エラー率を増大させる可能性が高い。
オンライン学習アルゴリズムでは,トレーニングサンプルの提示順序に対する感度を低減するために,簡単なアンサンブル法を提案する。
論文 参考訳(メタデータ) (2020-01-08T06:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。