論文の概要: Evaluating Deep Neural Network Ensembles by Majority Voting cum
Meta-Learning scheme
- arxiv url: http://arxiv.org/abs/2105.03819v1
- Date: Sun, 9 May 2021 03:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:47:32.901134
- Title: Evaluating Deep Neural Network Ensembles by Majority Voting cum
Meta-Learning scheme
- Title(参考訳): 多数決cumメタラーニング方式によるディープニューラルネットワークアンサンブルの評価
- Authors: Anmol Jain, Aishwary Kumar, Seba Susan
- Abstract要約: 新しいデータインスタンスのために,7つの独立したディープニューラルネットワーク(DNN)のアンサンブルを提案する。
残りのサンプルからブートストラップサンプリングによってデータの7分の1を削除して補充する。
この論文のすべてのアルゴリズムは5つのベンチマークデータセットでテストされている。
- 参考スコア(独自算出の注目度): 3.351714665243138
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Neural Networks (DNNs) are prone to overfitting and hence have high
variance. Overfitted networks do not perform well for a new data instance. So
instead of using a single DNN as classifier we propose an ensemble of seven
independent DNN learners by varying only the input to these DNNs keeping their
architecture and intrinsic properties same. To induce variety in the training
input, for each of the seven DNNs, one-seventh of the data is deleted and
replenished by bootstrap sampling from the remaining samples. We have proposed
a novel technique for combining the prediction of the DNN learners in the
ensemble. Our method is called pre-filtering by majority voting coupled with
stacked meta-learner which performs a two-step confi-dence check for the
predictions before assigning the final class labels. All the algorithms in this
paper have been tested on five benchmark datasets name-ly, Human Activity
Recognition (HAR), Gas sensor array drift, Isolet, Spam-base and Internet
advertisements. Our ensemble approach achieves higher accuracy than a single
DNN and the average individual accuracies of DNNs in the ensemble, as well as
the baseline approaches of plurality voting and meta-learning.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は過度に適合する傾向があるため、高いばらつきがある。
オーバーフィットしたネットワークは、新しいデータインスタンスではうまく機能しない。
そこで、1つのDNNを分類器として使用する代わりに、これらのDNNへの入力のみをアーキテクチャと固有の特性を同一に保つことで、7つの独立したDNN学習者のアンサンブルを提案する。
トレーニング入力のバラツキを誘導するため、7つのDNN毎に、残りのサンプルからのブートストラップサンプリングによりデータの7分の1を削除して補充する。
我々は,このアンサンブルにおけるDNN学習者の予測を組み合わせた新しい手法を提案する。
提案手法は,最終クラスラベルを割り当てる前に,2段階のコンフィデンスチェックを実行するメタラーナーと組み合わさって,多数決による事前フィルタリングと呼ばれる。
この論文のアルゴリズムはすべて、名前付き、人的活動認識(har)、ガスセンサアレイドリフト、isolet、スパムベース、インターネット広告の5つのベンチマークデータセットでテストされている。
我々のアンサンブルアプローチは,1つのDNNと1つのDNNの平均的精度,および複数の投票・メタ学習のベースラインアプローチよりも高い精度を達成する。
関連論文リスト
- E2GNN: Efficient Graph Neural Network Ensembles for Semi-Supervised Classification [30.55931541782854]
本研究では、グラフニューラルネットワーク(GNN)のアンサンブル学習を、人気のある半教師付き環境下で研究する。
ラベル付きノードとラベルなしノードの両方を活用することで,複数のGNNを学習可能な方法で組み立てる,効率的なアンサンブル学習者を提案する。
さまざまなGNNバックボーンと8つのベンチマークデータセットにまたがる、トランスダクティブとインダクティブ両方の設定に関する包括的な実験は、E2GNNの優位性を実証している。
論文 参考訳(メタデータ) (2024-05-06T12:11:46Z) - Detecting Novelties with Empty Classes [6.953730499849023]
我々は、新しいクラスの候補として、異常検出に基づいて、配布外データ(OoD)を検索する。
1)DNNがOoDサンプルを空のクラスに割り当て、2)内部クラスの特徴距離を最小化する2つの損失関数を導入する。
論文 参考訳(メタデータ) (2023-04-30T19:52:47Z) - Multi-Objective Linear Ensembles for Robust and Sparse Training of Few-Bit Neural Networks [5.246498560938275]
BNN(Binarized Neural Networks)とINN(Neural Networks)を併用した,数ビット離散値ニューラルネットワークの事例について検討する。
コントリビューションは、可能なクラスごとにひとつのNNをトレーニングし、最終的な出力を予測するために多数決方式を適用する、多目的アンサンブルアプローチである。
我々は,このBeMiアプローチを,BNN学習に焦点をあてた問題解決型NNトレーニングと勾配型トレーニングの最先端技術と比較する。
論文 参考訳(メタデータ) (2022-12-07T14:23:43Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Understanding and Improving Early Stopping for Learning with Noisy
Labels [63.0730063791198]
ディープニューラルネットワーク(DNN)の記憶効果は、多くの最先端のラベルノイズ学習法において重要な役割を担っている。
現在の手法は一般的にDNN全体を考慮して早期停止点を決定する。
我々は、DNNを異なる部分に分割し、この問題に対処するよう徐々に訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-30T07:18:00Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Self-Competitive Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は、多くのアプリケーションにおける分類問題の精度を改善している。
DNNをトレーニングする際の課題の1つは、その正確性を高め、過度な適合に苦しむことを避けるために、豊富なデータセットによって供給される必要があることである。
近年,データ拡張手法の提案が盛んに行われている。
本稿では,各クラスのドメイン・オブ・アトラクション(DoAs)を洗練させるために,逆データを生成します。このアプローチでは,各段階において,プライマリデータと生成された逆データ(その段階まで)から学習したモデルを用いて,プライマリデータを複雑な方法で操作する。
論文 参考訳(メタデータ) (2020-08-22T12:28:35Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。