論文の概要: Divide, Specialize, and Route: A New Approach to Efficient Ensemble Learning
- arxiv url: http://arxiv.org/abs/2506.20814v1
- Date: Wed, 25 Jun 2025 20:26:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.877045
- Title: Divide, Specialize, and Route: A New Approach to Efficient Ensemble Learning
- Title(参考訳): 分割・特化・経路:効率的なアンサンブル学習のための新しいアプローチ
- Authors: Jakub Piwko, Jędrzej Ruciński, Dawid Płudowski, Antoni Zajko, Patryzja Żak, Mateusz Zacharecki, Anna Kozak, Katarzyna Woźnica,
- Abstract要約: バイナリ分類のための新しいアンサンブルフレームワーク Hellsemble を提案する。
Hellsembleはデータセットを難易度の円に段階的に分割する。
計算効率と解釈可能性を維持しながら、強力な分類精度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensemble learning has proven effective in boosting predictive performance, but traditional methods such as bagging, boosting, and dynamic ensemble selection (DES) suffer from high computational cost and limited adaptability to heterogeneous data distributions. To address these limitations, we propose Hellsemble, a novel and interpretable ensemble framework for binary classification that leverages dataset complexity during both training and inference. Hellsemble incrementally partitions the dataset into circles of difficulty by iteratively passing misclassified instances from simpler models to subsequent ones, forming a committee of specialised base learners. Each model is trained on increasingly challenging subsets, while a separate router model learns to assign new instances to the most suitable base model based on inferred difficulty. Hellsemble achieves strong classification accuracy while maintaining computational efficiency and interpretability. Experimental results on OpenML-CC18 and Tabzilla benchmarks demonstrate that Hellsemble often outperforms classical ensemble methods. Our findings suggest that embracing instance-level difficulty offers a promising direction for constructing efficient and robust ensemble systems.
- Abstract(参考訳): アンサンブル学習は予測性能を高めるのに有効であることが証明されているが、バッグング、ブースティング、ダイナミックアンサンブル選択(DES)といった従来の手法は、計算コストが高く、異種データ分布への適応性が制限されている。
これらの制限に対処するために、トレーニングと推論の両方でデータセットの複雑さを活用するバイナリ分類のための、新しく解釈可能なアンサンブルフレームワークであるHellsembleを提案する。
Hellsembleは、データセットをより単純なモデルからその後のモデルに反復的に分類されたインスタンスを渡すことで、難易度の高いサークルに段階的に分割する。
各モデルは、ますます困難なサブセットに基づいてトレーニングされ、別のルータモデルは、推論困難に基づいて、最も適切なベースモデルに新しいインスタンスを割り当てることを学ぶ。
Hellsembleは、計算効率と解釈可能性を維持しながら、強力な分類精度を達成する。
OpenML-CC18とTabzillaベンチマークの実験結果は、ヘルセンブルが古典的なアンサンブル法より優れていることを示している。
この結果から, インスタンスレベルの難易度を受け入れることは, 効率的でロバストなアンサンブルシステムを構築する上で有望な方向性をもたらすことが示唆された。
関連論文リスト
- Deep Learning Meets Oversampling: A Learning Framework to Handle Imbalanced Classification [0.0]
データ駆動型で合成データインスタンスを生成できる新しい学習フレームワークを提案する。
提案手法は, オーバーサンプリング過程を離散決定基準の構成として定式化する。
不均衡な分類タスクの実験は、最先端のアルゴリズムよりも我々のフレームワークの方が優れていることを示す。
論文 参考訳(メタデータ) (2025-02-08T13:35:00Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Proof of Swarm Based Ensemble Learning for Federated Learning
Applications [3.2536767864585663]
連合学習では、プライバシー上の懸念から、集中型アンサンブル学習を直接適用することは不可能である。
ビザンティンフォールトトレランス(BFT)のようなほとんどの分散コンセンサスアルゴリズムは、通常そのようなアプリケーションではうまく機能しない。
フェデレートされた環境でのアンサンブル学習のための分散コンセンサスアルゴリズムPoSwを提案する。
論文 参考訳(メタデータ) (2022-12-28T13:53:34Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Neural Architecture for Online Ensemble Continual Learning [6.241435193861262]
我々は、エンドツーエンドのニューラルネットワークのアンサンブルを効率的に訓練できる、完全に微分可能なアンサンブル法を提案する。
提案手法は,メモリバッファを使わずにSOTA結果が得られ,参照手法よりも明らかに優れている。
論文 参考訳(メタデータ) (2022-11-27T23:17:08Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。