論文の概要: BAdaCost: Multi-class Boosting with Costs
- arxiv url: http://arxiv.org/abs/2402.04465v1
- Date: Tue, 6 Feb 2024 23:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:30:58.771789
- Title: BAdaCost: Multi-class Boosting with Costs
- Title(参考訳): BAdaCost: コストを伴うマルチクラスのブースティング
- Authors: Antonio Fern\'andez-Baldera, Jos\'e M. Buenaposada, Luis Baumela
- Abstract要約: BAdaCostは、マルチクラスコストセンシティブな分類アルゴリズムである。
従来のマルチクラスコストセンシティブなアプローチと比較して、パフォーマンスが大幅に向上する。
- 参考スコア(独自算出の注目度): 2.6080756513915824
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present BAdaCost, a multi-class cost-sensitive classification algorithm.
It combines a set of cost-sensitive multi-class weak learners to obtain a
strong classification rule within the Boosting framework. To derive the
algorithm we introduce CMEL, a Cost-sensitive Multi-class Exponential Loss that
generalizes the losses optimized in various classification algorithms such as
AdaBoost, SAMME, Cost-sensitive AdaBoost and PIBoost. Hence unifying them under
a common theoretical framework. In the experiments performed we prove that
BAdaCost achieves significant gains in performance when compared to previous
multi-class cost-sensitive approaches. The advantages of the proposed algorithm
in asymmetric multi-class classification are also evaluated in practical
multi-view face and car detection problems.
- Abstract(参考訳): マルチクラスコスト感性分類アルゴリズムであるBAdaCostを提案する。
コストに敏感な複数クラスの弱い学習者を組み合わせて、Boostingフレームワーク内で強力な分類規則を得る。
このアルゴリズムを導出するために,AdaBoost,SAMME,コストセンシティブなAdaBoost,PIBoostなどの様々な分類アルゴリズムで最適化された損失を一般化する,コストセンシティブなマルチクラス指数損失であるCMELを導入する。
それゆえ、共通の理論的枠組みの下でそれらを統一する。
実験では, BAdaCostが従来のマルチクラスコスト感性アプローチと比較して, 性能の大幅な向上を実証した。
非対称多クラス分類における提案アルゴリズムの利点は、実用的多視点顔と車検出問題でも評価されている。
関連論文リスト
- iCost: A Novel Instance Complexity Based Cost-Sensitive Learning Framework [0.0]
データにおけるクラス不均衡は、分類タスクにとって重要な課題である。
伝統的な分類アルゴリズムは多数派に偏っている。
本研究では, 複雑性に基づく新たなコスト感性アプローチ(「iCost」と呼ぶ)を提案する。
論文 参考訳(メタデータ) (2024-09-19T17:53:21Z) - Multiclass Boosting: Simple and Intuitive Weak Learning Criteria [72.71096438538254]
実現可能性の仮定を必要としない,単純かつ効率的なブースティングアルゴリズムを提案する。
本稿では,リスト学習者の向上に関する新たな結果と,マルチクラスPAC学習の特徴付けのための新しい証明を提案する。
論文 参考訳(メタデータ) (2023-07-02T19:26:58Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Adaptive Cost-Sensitive Learning in Neural Networks for
Misclassification Cost Problems [2.8935588665357077]
誤分類コスト問題に対する適応学習アルゴリズムを設計する。
我々のアルゴリズムは、トレーニングにおけるサンプルのサブグループと、同様の予測された確率を持つテストデータセットのクラス分布の違いを橋渡しする。
本稿では,提案アルゴリズムを用いたディープニューラルネットワークが,クラス不均衡分布とクラス不均衡分布を持つ複数のバイナリ分類データセットに対して,他のアプローチと比較して,より良いコスト結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-11-14T16:19:11Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - Self-Weighted Robust LDA for Multiclass Classification with Edge Classes [111.5515086563592]
SWRLDAと呼ばれる,l21ノルムを基準とした新しい自己重み付き頑健なLDAを提案する。
提案するSWRLDAは実装が容易で,実際に高速に収束する。
論文 参考訳(メタデータ) (2020-09-24T12:32:55Z) - AP-Loss for Accurate One-Stage Object Detection [49.13608882885456]
一段階の物体検出器は、分類損失と局所化損失を同時に最適化することによって訓練される。
前者は、多数のアンカーのため、非常に前景と後方のアンカーの不均衡に悩まされる。
本稿では,一段検知器の分類タスクをランキングタスクに置き換える新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-08-17T13:22:01Z) - Angle-Based Cost-Sensitive Multicategory Classification [34.174072286426885]
本稿では,ゼロ対ゼロの制約を伴わない多カテゴリ分類のための,新しいアングルに基づくコスト依存分類フレームワークを提案する。
このフレームワークの有用性を示すために、2つのコスト依存型マルチカテゴリブースティングアルゴリズムを具体例として導出した。
論文 参考訳(メタデータ) (2020-03-08T00:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。