論文の概要: Ensemble deep learning: A review
- arxiv url: http://arxiv.org/abs/2104.02395v1
- Date: Tue, 6 Apr 2021 09:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:26:36.622956
- Title: Ensemble deep learning: A review
- Title(参考訳): Ensemble Deep Learning: A review
- Authors: M.A. Ganaie (1) and Minghui Hu (2) and M. Tanveer*(1) and P.N.
Suganthan*(2) (* Corresponding Author (1) Department of Mathematics, Indian
Institute of Technology Indore, Simrol, Indore, 453552, India (2) School of
Electrical & Electronic Engineering, Nanyang Technological University,
Singapore)
- Abstract要約: アンサンブル学習はいくつかの個別モデルを組み合わせてより良い一般化性能を得る。
ディープアンサンブル学習モデルは、深層学習モデルとアンサンブル学習の両方の利点を組み合わせる。
本論文では,最新の深部アンサンブルモデルについて検討し,その概要を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble learning combines several individual models to obtain better
generalization performance. Currently, deep learning models with multilayer
processing architecture is showing better performance as compared to the
shallow or traditional classification models. Deep ensemble learning models
combine the advantages of both the deep learning models as well as the ensemble
learning such that the final model has better generalization performance. This
paper reviews the state-of-art deep ensemble models and hence serves as an
extensive summary for the researchers. The ensemble models are broadly
categorised into ensemble models like bagging, boosting and stacking, negative
correlation based deep ensemble models, explicit/implicit ensembles,
homogeneous /heterogeneous ensemble, decision fusion strategies, unsupervised,
semi-supervised, reinforcement learning and online/incremental, multilabel
based deep ensemble models. Application of deep ensemble models in different
domains is also briefly discussed. Finally, we conclude this paper with some
future recommendations and research directions.
- Abstract(参考訳): アンサンブル学習はいくつかの個別モデルを組み合わせてより良い一般化性能を得る。
現在、多層処理アーキテクチャを持つディープラーニングモデルは、浅い分類モデルや伝統的な分類モデルよりも優れた性能を示している。
ディープアンサンブル学習モデルには、ディープラーニングモデルとアンサンブル学習の両方の利点が組み合わされ、最終的なモデルは一般化性能が向上する。
本稿では,最先端の深層アンサンブルモデルについて概説する。
アンサンブルモデルは、バグング、ブースティング、積み重ね、負相関に基づくディープアンサンブルモデル、明示的/単純化アンサンブル、均質/ヘテロゲニーアンサンブル、決定融合戦略、教師なし、半教師なし、強化学習、オンライン/インクリメンタル、マルチラベルベースのディープアンサンブルモデルといったアンサンブルモデルに広く分類されている。
異なる領域における深層アンサンブルモデルの応用についても概説する。
最後に,今後の提言と研究の方向性について述べる。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - What Matters for Model Merging at Scale? [94.26607564817786]
モデルマージは、複数の専門家モデルとより有能な単一モデルを組み合わせることを目的としている。
これまでの研究は主に、いくつかの小さなモデルをマージすることに焦点を当ててきた。
本研究は,大規模モデルマージの有用性を体系的に評価する。
論文 参考訳(メタデータ) (2024-10-04T17:17:19Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Modern Neighborhood Components Analysis: A Deep Tabular Baseline Two Decades Later [59.88557193062348]
我々は、インスタンス間のセマンティックな類似性をキャプチャする線形射影を学習するために設計された古典的近傍成分分析(NCA)を再考する。
学習目的の調整や深層学習アーキテクチャの統合といった微調整は,NAAの性能を著しく向上させることがわかった。
また,提案したModernNCAの効率性と予測精度を向上する,近隣のサンプリング戦略も導入する。
論文 参考訳(メタデータ) (2024-07-03T16:38:57Z) - Learnable & Interpretable Model Combination in Dynamic Systems Modeling [0.0]
我々は、通常、どのモデルが組み合わされるかについて議論し、様々な混合方程式に基づくモデルを表現することができるモデルインターフェースを提案する。
本稿では,2つの組み合わせモデル間の汎用的な接続を,容易に解釈可能な方法で記述できる新しいワイルドカードトポロジーを提案する。
本稿では、2つのモデル間の異なる接続トポロジを学習し、解釈し、比較する。
論文 参考訳(メタデータ) (2024-06-12T11:17:11Z) - FusionBench: A Comprehensive Benchmark of Deep Model Fusion [78.80920533793595]
ディープモデル融合(Deep Model fusion)とは、複数のディープニューラルネットワークの予測やパラメータを単一のモデルに統合する手法である。
FusionBenchは、ディープモデル融合に特化した最初の包括的なベンチマークである。
論文 参考訳(メタデータ) (2024-06-05T13:54:28Z) - A Review of Sparse Expert Models in Deep Learning [23.721204843236006]
スパースエキスパートモデル(Sparse expert model)は、ディープラーニングの一般的なアーキテクチャとして再開発される30年前のコンセプトだ。
本稿では,スパースエキスパートモデルの概念を概観し,共通アルゴリズムの基本的記述を提供し,深層学習時代の進歩を文脈化する。
論文 参考訳(メタデータ) (2022-09-04T18:00:29Z) - Self-paced ensemble learning for speech and audio classification [19.39192082485334]
モデルが複数回のイテレーションで互いに学習する自己ペースのアンサンブル学習方式を提案する。
セルフペースの学習プロセスの間、私たちのアンサンブルはターゲットドメインに関する知識も得ます。
実験結果はSPELがベースラインアンサンブルモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-03-22T16:34:06Z) - Model Complexity of Deep Learning: A Survey [79.20117679251766]
深層学習におけるモデル複雑性に関する最新の研究を体系的に概観します。
本稿では,これら2つのカテゴリに関する既存研究について,モデルフレームワーク,モデルサイズ,最適化プロセス,データ複雑性の4つの重要な要因について概説する。
論文 参考訳(メタデータ) (2021-03-08T22:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。