論文の概要: Ensemble Performance Through the Lens of Linear Independence of Classifier Votes in Data Streams
- arxiv url: http://arxiv.org/abs/2511.21465v1
- Date: Wed, 26 Nov 2025 14:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.149209
- Title: Ensemble Performance Through the Lens of Linear Independence of Classifier Votes in Data Streams
- Title(参考訳): データストリームにおける分類音声の線形独立性レンズによるアンサンブル性能
- Authors: Enes Bektas, Fazli Can,
- Abstract要約: 本稿では,データストリームにおける分類器票間の線形独立性レンズによるアンサンブルサイズと性能の関係について検討する。
分類器出力間の線形独立性を達成する確率をモデル化することにより、アンサンブルサイズと精度のトレードオフを説明する理論的枠組みを導出する。
以上の結果から,OzaBaggingのような頑健なアンサンブルに対する性能飽和点を効果的に推定できることが確認された。
- 参考スコア(独自算出の注目度): 2.105564340986074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble learning improves classification performance by combining multiple base classifiers. While increasing the number of classifiers generally enhances accuracy, excessively large ensembles can lead to computational inefficiency and diminishing returns. This paper investigates the relationship between ensemble size and performance through the lens of linear independence among classifier votes in data streams. We propose that ensembles composed of linearly independent classifiers maximize representational capacity, particularly under a geometric model. We then generalize the importance of linear independence to the weighted majority voting problem. By modeling the probability of achieving linear independence among classifier outputs, we derive a theoretical framework that explains the trade-off between ensemble size and accuracy. Our analysis leads to a theoretical estimate of the ensemble size required to achieve a user-specified probability of linear independence. We validate our theory through experiments on both real-world and synthetic datasets using two ensemble methods, OzaBagging and GOOWE. Our results confirm that this theoretical estimate effectively identifies the point of performance saturation for robust ensembles like OzaBagging. Conversely, for complex weighting schemes like GOOWE, our framework reveals that high theoretical diversity can trigger algorithmic instability. Our implementation is publicly available to support reproducibility and future research.
- Abstract(参考訳): アンサンブル学習は、複数の基本分類器を組み合わせることで分類性能を向上させる。
分類器の数が増加すると一般に精度が向上するが、過度に大きなアンサンブルは計算の非効率さとリターンの減少につながる。
本稿では,データストリームにおける分類器票間の線形独立性レンズによるアンサンブルサイズと性能の関係について検討する。
線形独立な分類器からなるアンサンブルは、特に幾何学モデルの下で、表現能力を最大化する。
次に、重み付けされた多数決問題に線形独立の重要性を一般化する。
分類器出力間の線形独立性を達成する確率をモデル化することにより、アンサンブルサイズと精度のトレードオフを説明する理論的枠組みを導出する。
本分析は,線形独立性のユーザ特定確率を達成するために必要なアンサンブルサイズを理論的に推定する。
我々は,OzaBagging と GOOWE という2つのアンサンブル手法を用いて,実世界のデータセットと合成データセットの実験を通じて,我々の理論を検証する。
以上の結果から,OzaBaggingのような頑健なアンサンブルに対する性能飽和点を効果的に推定できることが確認された。
逆に、GOOWEのような複雑な重み付け方式では、我々のフレームワークは高い理論的多様性がアルゴリズムの不安定性を引き起こす可能性があることを明らかにしている。
私たちの実装は、再現性と将来の研究を支援するために公開されています。
関連論文リスト
- Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Obtaining Explainable Classification Models using Distributionally
Robust Optimization [12.511155426574563]
特徴値規則の集合を用いて構築した一般化線形モデルについて検討する。
ルールセットの間隔と予測精度の間には、固有のトレードオフが存在する。
我々はこれらの競合する要因に同時に対処するルールセットの集合を学習するための新しい定式化を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:45:34Z) - Leveraging Linear Independence of Component Classifiers: Optimizing Size
and Prediction Accuracy for Online Ensembles [3.97048491084787]
本研究では,分類者の投票の線形独立性に根ざした新たな視点を導入し,アンサンブルサイズと予測精度の相互作用を分析する。
本稿では,線形独立投票の目標確率を確保するために必要となる最小アンサンブルサイズを決定する手法を提案する。
驚くべきことに、計算された理想アンサンブルサイズは、あるデータセットに対する経験的な結果から逸脱し、他の要因の影響を強調している。
論文 参考訳(メタデータ) (2023-08-27T18:38:09Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - BELIEF in Dependence: Leveraging Atomic Linearity in Data Bits for Rethinking Generalized Linear Models [5.726186905478233]
我々は,バイナリ拡張線形効果(BELIEF)と呼ばれるフレームワークを開発し,任意の関係をバイナリ結果と理解する。
BELIEFフレームワークのモデルは、線形モデルの言語におけるバイナリ変数の関連性を記述するため、容易に解釈できる。
論文 参考訳(メタデータ) (2022-10-19T19:28:09Z) - A Dataset-Level Geometric Framework for Ensemble Classifiers [0.76146285961466]
多数決と重み付けされた多数決は、アンサンブル学習で一般的に使用される2つの組み合わせスキームである。
本稿では,これら2つの組み合わせスキームの特性群を,データセットレベルの幾何学的枠組みの下で正式に提示する。
論文 参考訳(メタデータ) (2021-06-16T09:48:12Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。