論文の概要: BPE: Behavioral Profiling Ensemble
- arxiv url: http://arxiv.org/abs/2601.10024v1
- Date: Thu, 15 Jan 2026 03:14:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.968674
- Title: BPE: Behavioral Profiling Ensemble
- Title(参考訳): BPE:行動プロファイルアンサンブル
- Authors: Yanxin Liu, Yunqi Zhang,
- Abstract要約: 本稿では,新しいパラダイムシフトを導入した行動プロファイリング・アンサンブル(BPE)フレームワークを提案する。
BPEは、各モデルに固有の行動プロファイルを構築し、特定のテストインスタンスに対するモデルの応答と確立された行動プロファイルとのずれに基づいて統合ウェイトを導出する。
合成と実世界の両方のデータセットの実験では、BPEフレームワークから派生したアルゴリズムが最先端のアンサンブルベースラインよりも大幅に改善されていることが示されている。
- 参考スコア(独自算出の注目度): 6.649136191016729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble learning is widely recognized as a pivotal strategy for pushing the boundaries of predictive performance. Traditional static ensemble methods, such as Stacking, typically assign weights by treating each base learner as a holistic entity, thereby overlooking the fact that individual models exhibit varying degrees of competence across different regions of the instance space. To address this limitation, Dynamic Ensemble Selection (DES) was introduced. However, both static and dynamic approaches predominantly rely on the divergence among different models as the basis for integration. This inter-model perspective neglects the intrinsic characteristics of the models themselves and necessitates a heavy reliance on validation sets for competence estimation. In this paper, we propose the Behavioral Profiling Ensemble (BPE) framework, which introduces a novel paradigm shift. Unlike traditional methods, BPE constructs a ``behavioral profile'' intrinsic to each model and derives integration weights based on the deviation between the model's response to a specific test instance and its established behavioral profile. Extensive experiments on both synthetic and real-world datasets demonstrate that the algorithm derived from the BPE framework achieves significant improvements over state-of-the-art ensemble baselines. These gains are evident not only in predictive accuracy but also in computational efficiency and storage resource utilization across various scenarios.
- Abstract(参考訳): アンサンブル学習は、予測性能の境界を押し上げるための重要な戦略として広く認識されている。
Stackingのような従来の静的アンサンブル法は、一般に各ベースラーナーを全体論的実体として扱うことで重みを割り当て、したがって個々のモデルがインスタンス空間の異なる領域で様々な能力を示すという事実を見越す。
この制限に対処するため、Dynamic Ensemble Selection (DES)が導入された。
しかし、静的アプローチと動的アプローチはどちらも、統合の基盤として異なるモデル間の相違に大きく依存している。
このモデル間パースペクティブは、モデル自体の本質的な特性を無視し、能力推定のための検証セットに大きく依存する必要がある。
本稿では,新しいパラダイムシフトを導入した行動プロファイリング・アンサンブル(BPE)フレームワークを提案する。
従来の方法とは異なり、BPEは各モデル固有の‘振る舞いプロファイル’を構築し、特定のテストインスタンスに対するモデルの応答と確立された振る舞いプロファイルとのずれに基づいて統合ウェイトを導出する。
合成と実世界の両方のデータセットに対する大規模な実験により、BPEフレームワークから派生したアルゴリズムが最先端のアンサンブルベースラインよりも大幅に改善されていることが示された。
これらの利得は、予測精度だけでなく、様々なシナリオにおける計算効率と記憶資源利用においても明らかである。
関連論文リスト
- An Integrated Fusion Framework for Ensemble Learning Leveraging Gradient Boosting and Fuzzy Rule-Based Models [59.13182819190547]
ファジィ規則に基づくモデルは解釈可能性に優れ、様々な分野に広く応用されている。
複雑な設計仕様や大規模データセットのスケーラビリティといった課題に直面している。
本稿では,モデル性能と解釈可能性を高めるために,両パラダイムの強みを融合した統合統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T10:28:23Z) - Relative Overfitting and Accept-Reject Framework [5.465098504510676]
本稿では,性能向上のためにモデルをセグメント化する方法を管理するアンサンブルフレームワークを提案する。
NLPの領域におけるこのフレームワークのパターンを詳述し、コンピュータビジョン(CV)や科学のためのAIなど他の分野に簡単に説明します。
論文 参考訳(メタデータ) (2025-05-12T17:36:14Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Out-of-Distribution Detection via Deep Multi-Comprehension Ensemble [11.542472900306745]
マルチComprehension (MC) Ensemble は,OOD (Out-of-Distribution) 特徴表現を拡大するための戦略として提案されている。
OOD検出におけるMC Ensemble戦略の優れた性能を示す実験結果を得た。
これにより,提案手法がトレーニング分布外のインスタンスを検出できるモデルの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-24T18:43:04Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。