論文の概要: Random vector functional link network: recent developments,
applications, and future directions
- arxiv url: http://arxiv.org/abs/2203.11316v1
- Date: Sun, 13 Feb 2022 05:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-25 22:58:48.295573
- Title: Random vector functional link network: recent developments,
applications, and future directions
- Title(参考訳): ランダムベクトル関数型リンクネットワーク : 最近の展開, 応用, 今後の展開
- Authors: A. K. Malik, Ruobin Gao, M.A. Ganaie, M. Tanveer, P.N. Suganthan
- Abstract要約: 乱数ベクトル汎関数リンク(RVFL)ネットワークのようなランダム化に基づくニューラルネットワークが提案されている。
RVFLモデルには、高速トレーニング速度、シンプルなアーキテクチャ、普遍近似能力など、いくつかの特徴がある。
RVFLモデルのバリエーション、改善、応用について詳述する。
- 参考スコア(独自算出の注目度): 5.2848042940993345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have been successfully employed in various domain such as
classification, regression and clustering, etc. Generally, the back propagation
(BP) based iterative approaches are used to train the neural networks, however,
it results in the issues of local minima, sensitivity to learning rate and slow
convergence. To overcome these issues, randomization based neural networks such
as random vector functional link (RVFL) network have been proposed. RVFL model
has several characteristics such as fast training speed, simple architecture,
and universal approximation capability, that make it a viable randomized neural
network. This article presents the comprehensive review of the development of
RVFL model, which can serve as the extensive summary for the beginners as well
as practitioners. We discuss the shallow RVFL, ensemble RVFL, deep RVFL and
ensemble deep RVFL models. The variations, improvements and applications of
RVFL models are discussed in detail. Moreover, we discuss the different
hyperparameter optimization techniques followed in the literature to improve
the generalization performance of the RVFL model. Finally, we give potential
future research directions/opportunities that can inspire the researchers to
improve the RVFL architecture further.
- Abstract(参考訳): ニューラルネットワークは、分類、回帰、クラスタリングなど、さまざまな領域でうまく採用されています。
一般に、バックプロパゲーション(BP)に基づく反復的アプローチはニューラルネットワークのトレーニングに使用されるが、これは局所的なミニマの問題、学習速度への感受性、緩やかな収束をもたらす。
これらの問題を解決するために、乱数ベクトル汎関数リンク(RVFL)ネットワークのようなランダム化に基づくニューラルネットワークが提案されている。
rvflモデルは、高速トレーニング速度、単純なアーキテクチャ、普遍近似能力などいくつかの特徴を持ち、実行可能なランダム化ニューラルネットワークとなっている。
本稿では、初心者だけでなく実践者にとっても広範な概要となるRVFLモデル開発の概要を概観する。
本稿では,浅いRVFL,深部RVFL,深部RVFL,深部RVFLモデルについて議論する。
rvflモデルのバリエーション、改良、応用について詳述する。
さらに, RVFLモデルの一般化性能を向上させるために, 各種ハイパーパラメータ最適化手法について検討した。
最後に、将来研究の方向性/機会を与え、研究者にRVFLアーキテクチャをさらに改善させるよう促す。
関連論文リスト
- Neural Networks for Vehicle Routing Problem [0.0]
ルート最適化はニューラルネットワークの新たな課題と見なすことができる。
機械学習の最近の進歩は、複雑な問題に対処するための新しいツールセットを提供する。
ニューラルネットワークを応用する主な領域は、分類と回帰の領域である。
論文 参考訳(メタデータ) (2024-09-17T15:45:30Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Multiobjective Evolutionary Pruning of Deep Neural Networks with
Transfer Learning for improving their Performance and Robustness [15.29595828816055]
本研究は,多目的進化解析アルゴリズムMO-EvoPruneDeepTLを提案する。
我々は、トランスファーラーニングを使用して、遺伝的アルゴリズムによって進化したスパース層に置き換えることで、ディープニューラルネットワークの最後の層を適応します。
実験の結果,提案手法は全ての目的に対して有望な結果が得られ,直接的な関係が示された。
論文 参考訳(メタデータ) (2023-02-20T19:33:38Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Optimal Learning Rates of Deep Convolutional Neural Networks: Additive
Ridge Functions [19.762318115851617]
深部畳み込みニューラルネットワークにおける平均2乗誤差解析について考察する。
付加的なリッジ関数に対しては、畳み込みニューラルネットワークとReLUアクティベーション関数を併用した1つの完全連結層が最適極小値に到達できることが示される。
論文 参考訳(メタデータ) (2022-02-24T14:22:32Z) - Contextual HyperNetworks for Novel Feature Adaptation [43.49619456740745]
Contextual HyperNetwork(CHN)は、ベースモデルを新機能に拡張するためのパラメータを生成する。
予測時、CHNはニューラルネットワークを通る単一のフォワードパスのみを必要とし、大幅なスピードアップをもたらす。
本システムでは,既存のインプテーションやメタラーニングベースラインよりも,新しい特徴のマイズショット学習性能が向上することを示す。
論文 参考訳(メタデータ) (2021-04-12T23:19:49Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。