論文の概要: A Dataset-Level Geometric Framework for Ensemble Classifiers
- arxiv url: http://arxiv.org/abs/2106.08658v1
- Date: Wed, 16 Jun 2021 09:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 03:42:08.212346
- Title: A Dataset-Level Geometric Framework for Ensemble Classifiers
- Title(参考訳): 集合分類器のためのデータセットレベル幾何フレームワーク
- Authors: Shengli Wu, Weimin Ding
- Abstract要約: 多数決と重み付けされた多数決は、アンサンブル学習で一般的に使用される2つの組み合わせスキームである。
本稿では,これら2つの組み合わせスキームの特性群を,データセットレベルの幾何学的枠組みの下で正式に提示する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensemble classifiers have been investigated by many in the artificial
intelligence and machine learning community. Majority voting and weighted
majority voting are two commonly used combination schemes in ensemble learning.
However, understanding of them is incomplete at best, with some properties even
misunderstood. In this paper, we present a group of properties of these two
schemes formally under a dataset-level geometric framework. Two key factors,
every component base classifier's performance and dissimilarity between each
pair of component classifiers are evaluated by the same metric - the Euclidean
distance. Consequently, ensembling becomes a deterministic problem and the
performance of an ensemble can be calculated directly by a formula. We prove
several theorems of interest and explain their implications for ensembles. In
particular, we compare and contrast the effect of the number of component
classifiers on these two types of ensemble schemes. Empirical investigation is
also conducted to verify the theoretical results when other metrics such as
accuracy are used. We believe that the results from this paper are very useful
for us to understand the fundamental properties of these two combination
schemes and the principles of ensemble classifiers in general. The results are
also helpful for us to investigate some issues in ensemble classifiers, such as
ensemble performance prediction, selecting a small number of base classifiers
to obtain efficient and effective ensembles.
- Abstract(参考訳): アンサンブル分類器は、人工知能と機械学習コミュニティの多くの人々によって研究されてきた。
多数決と重み付き多数決は、アンサンブル学習においてよく使われる2つの組み合わせスキームである。
しかし、それらの理解は不完全であり、いくつかの性質は誤解されている。
本稿では,これら2つのスキームの特性群を,データセットレベルの幾何学的枠組みの下で正式に提示する。
2つの重要な要因として、各コンポーネントベース分類器の性能と各コンポーネント分類器間の相似性を同じメトリック(ユークリッド距離)で評価する。
これにより、アンサンブルは決定論的問題となり、アンサンブルの性能を式で直接計算することができる。
いくつかの興味の定理を証明し、それらの意味をアンサンブルに説明する。
特に、これらの2種類のアンサンブルスキームに対する成分分類器の数の影響を比較して比較する。
精度などの他の指標を用いた場合の理論的結果を検証するための実証的研究も行われている。
本論文の結果は,これら2つの組み合わせスキームの基本特性と一般のアンサンブル分類器の原理を理解する上で非常に有用であると考えられる。
また、アンサンブル性能予測や少数のベース分類器の選択など、アンサンブル分類器の諸問題についても検討し、効率よく効果的なアンサンブルを求める上で有用である。
関連論文リスト
- Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Relation-aware Ensemble Learning for Knowledge Graph Embedding [68.94900786314666]
我々は,既存の手法を関係性に配慮した方法で活用し,アンサンブルを学習することを提案する。
関係認識アンサンブルを用いてこれらのセマンティクスを探索すると、一般的なアンサンブル法よりもはるかに大きな検索空間が得られる。
本稿では,リレーショナルなアンサンブル重みを独立に検索する分割探索合成アルゴリズムRelEns-DSCを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:40:12Z) - Leveraging Linear Independence of Component Classifiers: Optimizing Size
and Prediction Accuracy for Online Ensembles [3.97048491084787]
本研究では,分類者の投票の線形独立性に根ざした新たな視点を導入し,アンサンブルサイズと予測精度の相互作用を分析する。
本稿では,線形独立投票の目標確率を確保するために必要となる最小アンサンブルサイズを決定する手法を提案する。
驚くべきことに、計算された理想アンサンブルサイズは、あるデータセットに対する経験的な結果から逸脱し、他の要因の影響を強調している。
論文 参考訳(メタデータ) (2023-08-27T18:38:09Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Specialists Outperform Generalists in Ensemble Classification [15.315432841707736]
本稿では,アンサンブルの精度を判定できるかどうかという問題に対処する。
我々は、上と下の境界に達する個別の分類器を明示的に構築する:専門家と一般主義者。
論文 参考訳(メタデータ) (2021-07-09T12:16:10Z) - HAWKS: Evolving Challenging Benchmark Sets for Cluster Analysis [2.5329716878122404]
クラスタリングアルゴリズムの包括的なベンチマークは難しい。
厳格なベンチマークのベストプラクティスに関する合意はありません。
このようなベンチマークのフレキシブルな生成を支援するために,進化的アルゴリズムが果たす重要な役割を実証する。
論文 参考訳(メタデータ) (2021-02-13T15:01:34Z) - Linear Classifier Combination via Multiple Potential Functions [0.6091702876917279]
決定境界からクラスセントロイドまでの距離との距離に基づいてスコアリング関数を計算する新しい概念を提案する。
重要な性質は、提案されたスコア関数がすべての線形基底分類器に対して同じ性質を持つことである。
論文 参考訳(メタデータ) (2020-10-02T08:11:51Z) - Ensemble of Binary Classifiers Combined Using Recurrent Correlation
Associative Memories [1.3706331473063877]
多数決は、アンサンブル法で分類器を結合する手法の例である。
本稿では,二項分類問題に対する繰り返し相関連想記憶に基づくアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2020-09-18T01:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。