論文の概要: A Boosting Approach to Constructing an Ensemble Stack
- arxiv url: http://arxiv.org/abs/2211.15621v1
- Date: Mon, 28 Nov 2022 18:21:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 16:42:34.974650
- Title: A Boosting Approach to Constructing an Ensemble Stack
- Title(参考訳): アンサンブルスタック構築のためのブースティングアプローチ
- Authors: Zhilei Zhou and Ziyu Qiu and Brad Niblett and Andrew Johnston and
Jeffrey Schwartzentruber and Nur Zincir-Heywood and Malcolm Heywood
- Abstract要約: プログラムのスタック構築にブースティングを用いる,分類のための進化的アンサンブル学習手法を提案する。
残留データセットに対するトレーニングは、トレーニングコストを積極的に削減する。
ベンチマーク研究は、現在最先端の進化的アンサンブル学習アルゴリズムの予測精度と競争性を示すために行われた。
- 参考スコア(独自算出の注目度): 1.0775419935941009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An approach to evolutionary ensemble learning for classification is proposed
in which boosting is used to construct a stack of programs. Each application of
boosting identifies a single champion and a residual dataset, i.e. the training
records that thus far were not correctly classified. The next program is only
trained against the residual, with the process iterating until some maximum
ensemble size or no further residual remains. Training against a residual
dataset actively reduces the cost of training. Deploying the ensemble as a
stack also means that only one classifier might be necessary to make a
prediction, so improving interpretability. Benchmarking studies are conducted
to illustrate competitiveness with the prediction accuracy of current
state-of-the-art evolutionary ensemble learning algorithms, while providing
solutions that are orders of magnitude simpler. Further benchmarking with a
high cardinality dataset indicates that the proposed method is also more
accurate and efficient than XGBoost.
- Abstract(参考訳): 分類のための進化的アンサンブル学習へのアプローチが提案され、プログラムのスタックを構築するためにブースティングが使用される。
boostingのそれぞれのアプリケーションは、単一のチャンピオンと残りのデータセット、すなわち、これまで正しく分類されていなかったトレーニングレコードを識別する。
次のプログラムは残留物に対してのみ訓練され、最大アンサンブルサイズまたはそれ以上の残留物が残るまで反復される。
残留データセットに対するトレーニングは、トレーニングコストを積極的に削減する。
アンサンブルをスタックとしてデプロイすることは、予測を行うのに1つの分類器だけが必要であることを意味するため、解釈性も向上する。
ベンチマーク研究は、最先端の進化的アンサンブル学習アルゴリズムの予測精度と競争性を示すとともに、桁違いに単純なソリューションを提供する。
高濃度データセットによるさらなるベンチマークにより,提案手法はXGBoostよりも正確かつ効率的であることが示唆された。
関連論文リスト
- Classification Tree-based Active Learning: A Wrapper Approach [4.706932040794696]
本稿では,木構造にサンプリングプロセスを整理し,分類のためのラッパー能動的学習法を提案する。
ラベル付き標本の初期集合上に構築された分類木は、空間を低エントロピー領域に分解すると考えられる。
この適応は、既存のアクティブラーニング手法よりも大幅に向上することが証明されている。
論文 参考訳(メタデータ) (2024-04-15T17:27:00Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Revisiting Long-tailed Image Classification: Survey and Benchmarks with
New Evaluation Metrics [88.39382177059747]
メトリクスのコーパスは、長い尾の分布で学習するアルゴリズムの正確性、堅牢性、およびバウンダリを測定するために設計されている。
ベンチマークに基づいて,CIFAR10およびCIFAR100データセット上での既存手法の性能を再評価する。
論文 参考訳(メタデータ) (2023-02-03T02:40:54Z) - SetConv: A New Approach for Learning from Imbalanced Data [29.366843553056594]
集合畳み込み操作とエピソード学習戦略を提案し,各クラスに1つの代表を抽出する。
提案アルゴリズムは入力順序に関わらず置換不変であることを示す。
論文 参考訳(メタデータ) (2021-04-03T22:33:30Z) - Uncovering Coresets for Classification With Multi-Objective Evolutionary
Algorithms [0.8057006406834467]
coresetはトレーニングセットのサブセットであり、機械学習アルゴリズムが元のデータ全体にわたってトレーニングされた場合の成果と同じようなパフォーマンスを取得する。
候補コルセットは反復的に最適化され、サンプルの追加と削除が行われる。
多目的進化アルゴリズムは、集合内の点数と分類誤差を同時に最小化するために用いられる。
論文 参考訳(メタデータ) (2020-02-20T09:59:56Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z) - ScaIL: Classifier Weights Scaling for Class Incremental Learning [12.657788362927834]
ディープラーニングのアプローチでは、一定の計算予算は、すべてのインクリメンタルな状態に対して固定されたアーキテクチャを使用する必要がある。
境界メモリは、新しいクラスに有利なデータ不均衡を生成し、それらに対する予測バイアスが現れる。
過去のクラス分類器の重み付けを,新しいクラスに匹敵するものにするために,単純かつ効率的なスケーリングを提案する。
論文 参考訳(メタデータ) (2020-01-16T12:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。