論文の概要: Identification of Nonlinear Dynamic Systems Using Type-2 Fuzzy Neural
Networks -- A Novel Learning Algorithm and a Comparative Study
- arxiv url: http://arxiv.org/abs/2104.01713v1
- Date: Sun, 4 Apr 2021 23:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 01:47:19.456445
- Title: Identification of Nonlinear Dynamic Systems Using Type-2 Fuzzy Neural
Networks -- A Novel Learning Algorithm and a Comparative Study
- Title(参考訳): Type-2ファジィニューラルネットワークを用いた非線形力学系の同定 -新しい学習アルゴリズムと比較研究-
- Authors: Erkan Kayacan, Erdal Kayacan and Mojtaba Ahmadieh Khanesar
- Abstract要約: スライディングモード理論に基づく学習アルゴリズムは、タイプ2ファジィニューラルネットワークの前提部分と結果部分の両方を調整するために提案されている。
提案アルゴリズムの安定性は、適切なリアプノフ関数を用いて証明されている。
いくつかの比較結果が得られ、提案アルゴリズムは既存の手法よりも高速な収束速度を持つことを示した。
- 参考スコア(独自算出の注目度): 12.77304082363491
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In order to achieve faster and more robust convergence (especially under
noisy working environments), a sliding mode theory-based learning algorithm has
been proposed to tune both the premise and consequent parts of type-2 fuzzy
neural networks in this paper. Differently from recent studies, where sliding
mode control theory-based rules are proposed for only the consequent part of
the network, the developed algorithm applies fully sliding mode parameter
update rules for both the premise and consequent parts of the type-2 fuzzy
neural networks. In addition, the responsible parameter for sharing the
contributions of the lower and upper parts of the type-2 fuzzy membership
functions is also tuned. Moreover, the learning rate of the network is updated
during the online training. The stability of the proposed learning algorithm
has been proved by using an appropriate Lyapunov function. Several comparisons
have been realized and shown that the proposed algorithm has faster convergence
speed than the existing methods such as gradient-based and swarm
intelligence-based methods. Moreover, the proposed learning algorithm has a
closed form, and it is easier to implement than the other existing methods.
- Abstract(参考訳): 本稿では,より高速で堅牢な収束(特に雑音の多い作業環境下で)を実現するために,2型ファジィニューラルネットワークの前提とそれに伴う部分の調整を行うスライディングモード理論に基づく学習アルゴリズムを提案する。
近年の研究では、ネットワークの連続部分のみにスライディングモード制御理論に基づくルールが提案されているが、このアルゴリズムでは、タイプ2ファジィニューラルネットワークの前提部分と連続部分の両方に完全にスライディングモードパラメータ更新ルールを適用している。
また、type-2ファジィメンバーシップ関数の下部及び上部の貢献を共有する責任のあるパラメータも調整される。
さらに、オンライントレーニング中にネットワークの学習率を更新する。
提案アルゴリズムの安定性は適切なリアプノフ関数を用いて証明されている。
いくつかの比較が実現され,提案アルゴリズムは勾配法や群知能法といった既存手法よりも収束速度が速いことが示されている。
さらに,提案アルゴリズムはクローズドな形式であり,既存の手法よりも実装が容易である。
関連論文リスト
- Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - An Adaptive and Stability-Promoting Layerwise Training Approach for Sparse Deep Neural Network Architecture [0.0]
この研究は、与えられたトレーニングデータセットに対してうまく一般化するディープニューラルネットワーク(DNN)アーキテクチャを開発するための2段階適応フレームワークを提案する。
第1段階では、新しいレイヤを毎回追加し、前のレイヤでパラメータを凍結することで独立してトレーニングする、レイヤワイズトレーニングアプローチが採用されている。
本稿では, 学習アルゴリズムの望ましい特性として, エプシロン・デルタ安定促進の概念を導入し, 多様体正規化を用いることで, エプシロン・デルタ安定促進アルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-13T09:51:16Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Lifted Bregman Training of Neural Networks [28.03724379169264]
本稿では,(潜在的に非滑らかな)近位写像を活性化関数として,フィードフォワードニューラルネットワークのトレーニングのための新しい数学的定式化を導入する。
この定式化はBregmanに基づいており、ネットワークのパラメータに関する偏微分がネットワークのアクティベーション関数の微分の計算を必要としないという利点がある。
ニューラルネットワークに基づく分類器のトレーニングや、スパースコーディングによる(デノーミング)オートエンコーダのトレーニングには、これらのトレーニングアプローチが等しく適しているか、さらに適していることを示す数値的な結果がいくつか提示される。
論文 参考訳(メタデータ) (2022-08-18T11:12:52Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Accelerated learning algorithms of general fuzzy min-max neural network
using a novel hyperbox selection rule [9.061408029414455]
本稿では,一般ファジィmin-maxニューラルネットワークの学習過程を高速化する手法を提案する。
提案手法は分岐結合解を形成する数学的公式に基づいている。
実験結果から,オンライン学習アルゴリズムと集約学習アルゴリズムの両方において,提案手法の学習時間の大幅な短縮が示された。
論文 参考訳(メタデータ) (2020-03-25T11:26:18Z) - An improved online learning algorithm for general fuzzy min-max neural
network [11.631815277762257]
本稿では,一般ファジィmin-maxニューラルネット(GFMM)のための現在のオンライン学習アルゴリズムの改良版を提案する。
提案手法では、重なり合うハイパーボックスの収縮過程は使用せず、エラー率を増大させる可能性が高い。
オンライン学習アルゴリズムでは,トレーニングサンプルの提示順序に対する感度を低減するために,簡単なアンサンブル法を提案する。
論文 参考訳(メタデータ) (2020-01-08T06:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。