論文の概要: Ensemble deep learning: A review
- arxiv url: http://arxiv.org/abs/2104.02395v1
- Date: Tue, 6 Apr 2021 09:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:26:36.622956
- Title: Ensemble deep learning: A review
- Title(参考訳): Ensemble Deep Learning: A review
- Authors: M.A. Ganaie (1) and Minghui Hu (2) and M. Tanveer*(1) and P.N.
Suganthan*(2) (* Corresponding Author (1) Department of Mathematics, Indian
Institute of Technology Indore, Simrol, Indore, 453552, India (2) School of
Electrical & Electronic Engineering, Nanyang Technological University,
Singapore)
- Abstract要約: アンサンブル学習はいくつかの個別モデルを組み合わせてより良い一般化性能を得る。
ディープアンサンブル学習モデルは、深層学習モデルとアンサンブル学習の両方の利点を組み合わせる。
本論文では,最新の深部アンサンブルモデルについて検討し,その概要を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble learning combines several individual models to obtain better
generalization performance. Currently, deep learning models with multilayer
processing architecture is showing better performance as compared to the
shallow or traditional classification models. Deep ensemble learning models
combine the advantages of both the deep learning models as well as the ensemble
learning such that the final model has better generalization performance. This
paper reviews the state-of-art deep ensemble models and hence serves as an
extensive summary for the researchers. The ensemble models are broadly
categorised into ensemble models like bagging, boosting and stacking, negative
correlation based deep ensemble models, explicit/implicit ensembles,
homogeneous /heterogeneous ensemble, decision fusion strategies, unsupervised,
semi-supervised, reinforcement learning and online/incremental, multilabel
based deep ensemble models. Application of deep ensemble models in different
domains is also briefly discussed. Finally, we conclude this paper with some
future recommendations and research directions.
- Abstract(参考訳): アンサンブル学習はいくつかの個別モデルを組み合わせてより良い一般化性能を得る。
現在、多層処理アーキテクチャを持つディープラーニングモデルは、浅い分類モデルや伝統的な分類モデルよりも優れた性能を示している。
ディープアンサンブル学習モデルには、ディープラーニングモデルとアンサンブル学習の両方の利点が組み合わされ、最終的なモデルは一般化性能が向上する。
本稿では,最先端の深層アンサンブルモデルについて概説する。
アンサンブルモデルは、バグング、ブースティング、積み重ね、負相関に基づくディープアンサンブルモデル、明示的/単純化アンサンブル、均質/ヘテロゲニーアンサンブル、決定融合戦略、教師なし、半教師なし、強化学習、オンライン/インクリメンタル、マルチラベルベースのディープアンサンブルモデルといったアンサンブルモデルに広く分類されている。
異なる領域における深層アンサンブルモデルの応用についても概説する。
最後に,今後の提言と研究の方向性について述べる。
関連論文リスト
- Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Sub-Graph Learning for Spatiotemporal Forecasting via Knowledge
Distillation [22.434970343698676]
サブグラフを効果的に学習するためのフレームワークKD-SGLを提案する。
グラフの全体構造と各サブグラフの複数の局所モデルを学ぶために,グローバルモデルを定義する。
論文 参考訳(メタデータ) (2022-11-17T18:02:55Z) - On the Compositional Generalization Gap of In-Context Learning [73.09193595292233]
In-distriion (ID) と Out-of-distriion (OOD) の相違について考察する。
我々は,3つの意味解析データセットを用いて,OPT,BLOOM,CodeGen,Codexの4つのモデルファミリを評価する。
論文 参考訳(メタデータ) (2022-11-15T19:56:37Z) - A Review of Sparse Expert Models in Deep Learning [23.721204843236006]
スパースエキスパートモデル(Sparse expert model)は、ディープラーニングの一般的なアーキテクチャとして再開発される30年前のコンセプトだ。
本稿では,スパースエキスパートモデルの概念を概観し,共通アルゴリズムの基本的記述を提供し,深層学習時代の進歩を文脈化する。
論文 参考訳(メタデータ) (2022-09-04T18:00:29Z) - Self-paced ensemble learning for speech and audio classification [19.39192082485334]
モデルが複数回のイテレーションで互いに学習する自己ペースのアンサンブル学習方式を提案する。
セルフペースの学習プロセスの間、私たちのアンサンブルはターゲットドメインに関する知識も得ます。
実験結果はSPELがベースラインアンサンブルモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-03-22T16:34:06Z) - Model Complexity of Deep Learning: A Survey [79.20117679251766]
深層学習におけるモデル複雑性に関する最新の研究を体系的に概観します。
本稿では,これら2つのカテゴリに関する既存研究について,モデルフレームワーク,モデルサイズ,最適化プロセス,データ複雑性の4つの重要な要因について概説する。
論文 参考訳(メタデータ) (2021-03-08T22:39:32Z) - Adaptive Generation Model: A New Ensemble Method [9.929475689375167]
本稿では,gcForestのアイデア,すなわち適応生成モデル(AGM)に基づくスタックモデルの改良を提案する。
これは、各層モデルの幅を広げるために水平方向だけでなく、垂直方向にも適応生成を行い、モデルの深さを拡大することを意味する。
論文 参考訳(メタデータ) (2020-09-14T11:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。