論文の概要: Ensemble Deep Random Vector Functional Link Neural Network Based on Fuzzy Inference System
- arxiv url: http://arxiv.org/abs/2406.00801v2
- Date: Sun, 14 Jul 2024 08:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 00:26:24.974043
- Title: Ensemble Deep Random Vector Functional Link Neural Network Based on Fuzzy Inference System
- Title(参考訳): ファジィ推論システムに基づく奥行きベクトル関数型ニューラルネットワーク
- Authors: M. Sajid, M. Tanveer, P. N. Suganthan,
- Abstract要約: アンサンブルディープランダムベクトル汎関数リンク(edRVFL)ニューラルネットワークは、従来の人工ニューラルネットワークの限界に対処する能力を示した。
本稿では,ファジィ推論システム(edRVFL-FIS)に基づく新しいEDRVFLを提案する。
- 参考スコア(独自算出の注目度): 0.6437284704257459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ensemble deep random vector functional link (edRVFL) neural network has demonstrated the ability to address the limitations of conventional artificial neural networks. However, since edRVFL generates features for its hidden layers through random projection, it can potentially lose intricate features or fail to capture certain non-linear features in its base models (hidden layers). To enhance the feature learning capabilities of edRVFL, we propose a novel edRVFL based on fuzzy inference system (edRVFL-FIS). The proposed edRVFL-FIS leverages the capabilities of two emerging domains, namely deep learning and ensemble approaches, with the intrinsic IF-THEN properties of fuzzy inference system (FIS) and produces rich feature representation to train the ensemble model. Each base model of the proposed edRVFL-FIS encompasses two key feature augmentation components: a) unsupervised fuzzy layer features and b) supervised defuzzified features. The edRVFL-FIS model incorporates diverse clustering methods (R-means, K-means, Fuzzy C-means) to establish fuzzy layer rules, resulting in three model variations (edRVFL-FIS-R, edRVFL-FIS-K, edRVFL-FIS-C) with distinct fuzzified features and defuzzified features. Within the framework of edRVFL-FIS, each base model utilizes the original, hidden layer and defuzzified features to make predictions. Experimental results, statistical tests, discussions and analyses conducted across UCI and NDC datasets consistently demonstrate the superior performance of all variations of the proposed edRVFL-FIS model over baseline models. The source codes of the proposed models are available at https://github.com/mtanveer1/edRVFL-FIS.
- Abstract(参考訳): アンサンブルディープランダムベクトル汎関数リンク(edRVFL)ニューラルネットワークは、従来の人工ニューラルネットワークの限界に対処する能力を示した。
しかし、EDRVFLはランダムなプロジェクションによって隠れたレイヤーの機能を生成しているため、複雑な機能を失ったり、ベースモデル(隠れた層)の特定の非線形機能をキャプチャできなかったりする可能性がある。
EDRVFLの特徴学習能力を高めるために,ファジィ推論システム(edRVFL-FIS)に基づく新しいEDRVFLを提案する。
提案したEDRVFL-FISは、ファジィ推論システム(FIS)の内在的なIF-THEN特性を用いて、深層学習とアンサンブルアプローチという2つの新興ドメインの機能を活用し、アンサンブルモデルを訓練するためのリッチな特徴表現を生成する。
提案したEDRVFL-FISの各ベースモデルには,2つの重要な機能拡張コンポーネントが含まれている。
a) 教師なしファジィ層の特徴と特徴
b) 監督された解凍特徴
EDRVFL-FISモデルは、様々なクラスタリング手法(R-means, K-means, Fuzzy C-means)を組み込んでファジィ層ルールを確立することで、3つのモデルバリエーション(EDRVFL-FIS-R, edRVFL-FIS-K, edRVFL-FIS-C)を異なるファジィ特徴と解凍特徴を持つ。
EDRVFL-FISのフレームワーク内では、各ベースモデルは元の隠蔽層と解凍した特徴を利用して予測を行う。
UCIおよびNDCデータセット間で行われた実験結果、統計的テスト、議論および分析は、ベースラインモデルよりも提案されたEDRVFL-FISモデルの全バリエーションの優れた性能を一貫して証明している。
提案されたモデルのソースコードはhttps://github.com/mtanveer1/EDRVFL-FISで公開されている。
関連論文リスト
- ASU-CNN: An Efficient Deep Architecture for Image Classification and
Feature Visualizations [0.0]
活性化関数はディープニューラルネットワークの能力を決定する上で決定的な役割を果たす。
本稿では,ASU-CNNと呼ばれる畳み込みニューラルネットワークモデルを提案する。
ネットワークは、CIFAR-10の分類のためのトレーニングデータとテストデータの両方において有望な結果を得た。
論文 参考訳(メタデータ) (2023-05-28T16:52:25Z) - Functional Neural Networks: Shift invariant models for functional data
with applications to EEG classification [0.0]
我々は、データのスムーズさを保ちながら不変な新しいタイプのニューラルネットワークを導入する:関数型ニューラルネットワーク(FNN)
そこで我々は,多層パーセプトロンと畳み込みニューラルネットワークを機能データに拡張するために,機能データ分析(FDA)の手法を用いる。
脳波(EEG)データの分類にFNNをうまく利用し,FDAのベンチマークモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-01-14T09:41:21Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Random vector functional link network: recent developments,
applications, and future directions [5.2848042940993345]
乱数ベクトル汎関数リンク(RVFL)ネットワークのようなランダム化に基づくニューラルネットワークが提案されている。
RVFLモデルには、高速トレーニング速度、ダイレクトリンク、シンプルなアーキテクチャ、普遍近似機能など、いくつかの特徴がある。
本稿では RVFL モデルの進化を包括的に概観する。
論文 参考訳(メタデータ) (2022-02-13T05:02:52Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - It's FLAN time! Summing feature-wise latent representations for
interpretability [0.0]
FLAN(Feature-wise Latent Additive Networks)と呼ばれる構造拘束型ニューラルネットワークの新たなクラスを提案する。
FLANは各入力機能を別々に処理し、それぞれに共通の潜在空間の表現を演算する。
これらの特徴的潜在表現は単純に要約され、集約された表現は予測に使用される。
論文 参考訳(メタデータ) (2021-06-18T12:19:33Z) - Linear Iterative Feature Embedding: An Ensemble Framework for
Interpretable Model [6.383006473302968]
線形反復特徴埋め込み(LIFE)と呼ばれる解釈可能なモデルのための新しいアンサンブルフレームワークを開発した。
LIFEは、広い一層ニューラルネットワーク(NN)を正確に3つのステップに適合させることができる。
LIFEは直接訓練された単層NNを一貫して上回り、また他の多くのベンチマークモデルより上です。
論文 参考訳(メタデータ) (2021-03-18T02:01:17Z) - Probabilistic Graph Attention Network with Conditional Kernels for
Pixel-Wise Prediction [158.88345945211185]
本稿では,画素レベルの予測を基本的側面,すなわち,技術の現状を推し進める新たなアプローチを提案する。
構造化されたマルチスケール機能学習と融合。
本論文では,マルチスケール表現を原理的に学習・融合するための新しいアテンテンションゲート条件ランダムフィールド(AG-CRFs)モデルに基づく確率的グラフアテンションネットワーク構造を提案する。
論文 参考訳(メタデータ) (2021-01-08T04:14:29Z) - Learning to Learn Kernels with Variational Random Features [118.09565227041844]
メタラーニングフレームワークにランダムなフーリエ機能を持つカーネルを導入し、その強力な数ショット学習能力を活用する。
変分推論問題としてメタVRFの最適化を定式化する。
MetaVRFは、既存のメタ学習方法に比べて、はるかに優れた、少なくとも競争力のあるパフォーマンスを提供します。
論文 参考訳(メタデータ) (2020-06-11T18:05:29Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。