論文の概要: An improved online learning algorithm for general fuzzy min-max neural
network
- arxiv url: http://arxiv.org/abs/2001.02391v1
- Date: Wed, 8 Jan 2020 06:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 09:41:22.794016
- Title: An improved online learning algorithm for general fuzzy min-max neural
network
- Title(参考訳): 一般ファジィmin-maxニューラルネットワークのためのオンライン学習アルゴリズムの改良
- Authors: Thanh Tung Khuat, Fang Chen, Bogdan Gabrys
- Abstract要約: 本稿では,一般ファジィmin-maxニューラルネット(GFMM)のための現在のオンライン学習アルゴリズムの改良版を提案する。
提案手法では、重なり合うハイパーボックスの収縮過程は使用せず、エラー率を増大させる可能性が高い。
オンライン学習アルゴリズムでは,トレーニングサンプルの提示順序に対する感度を低減するために,簡単なアンサンブル法を提案する。
- 参考スコア(独自算出の注目度): 11.631815277762257
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes an improved version of the current online learning
algorithm for a general fuzzy min-max neural network (GFMM) to tackle existing
issues concerning expansion and contraction steps as well as the way of dealing
with unseen data located on decision boundaries. These drawbacks lower its
classification performance, so an improved algorithm is proposed in this study
to address the above limitations. The proposed approach does not use the
contraction process for overlapping hyperboxes, which is more likely to
increase the error rate as shown in the literature. The empirical results
indicated the improvement in the classification accuracy and stability of the
proposed method compared to the original version and other fuzzy min-max
classifiers. In order to reduce the sensitivity to the training samples
presentation order of this new on-line learning algorithm, a simple ensemble
method is also proposed.
- Abstract(参考訳): 本稿では,既存の拡張・縮小ステップ問題に対処する汎用ファジィmin-maxニューラルネット(GFMM)に対する現在のオンライン学習アルゴリズムの改良と,決定境界上の未確認データを扱う方法を提案する。
これらの欠点は分類性能を低下させるため、上記の制限に対処するために改良アルゴリズムが提案されている。
提案手法では, 重なり合うハイパーボックスの収縮過程は使用せず, 文献に示すようにエラー率を増大させる傾向にある。
実験の結果,提案手法の分類精度と安定性は,原版や他のファジィmin-max分類器と比較して向上した。
このオンライン学習アルゴリズムの学習サンプルの提示順序に対する感度を低減するために,簡易なアンサンブル法も提案されている。
関連論文リスト
- Learning by the F-adjoint [0.0]
本研究では、フィードフォワードニューラルネットワークのための教師付き学習アルゴリズムを改善するための理論的枠組みを開発し、検討する。
我々の主な結果は、勾配降下法と組み合わせた神経力学モデルを導入することにより、平衡F-随伴過程を導出したことである。
MNISTとFashion-MNISTデータセットの実験結果は、提案手法が標準バックプロパゲーショントレーニング手順を大幅に改善することを示した。
論文 参考訳(メタデータ) (2024-07-08T13:49:25Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Online Learning Under A Separable Stochastic Approximation Framework [20.26530917721778]
分離可能な近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
提案アルゴリズムは,他の一般的な学習アルゴリズムと比較して,より堅牢でテスト性能が高いことを示す。
論文 参考訳(メタデータ) (2023-05-12T13:53:03Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Accelerated learning algorithms of general fuzzy min-max neural network
using a novel hyperbox selection rule [9.061408029414455]
本稿では,一般ファジィmin-maxニューラルネットワークの学習過程を高速化する手法を提案する。
提案手法は分岐結合解を形成する数学的公式に基づいている。
実験結果から,オンライン学習アルゴリズムと集約学習アルゴリズムの両方において,提案手法の学習時間の大幅な短縮が示された。
論文 参考訳(メタデータ) (2020-03-25T11:26:18Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。