論文の概要: AdaCC: Cumulative Cost-Sensitive Boosting for Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2209.08309v1
- Date: Sat, 17 Sep 2022 10:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:25:20.552980
- Title: AdaCC: Cumulative Cost-Sensitive Boosting for Imbalanced Classification
- Title(参考訳): AdaCC:非均衡分類のための累積コスト感性ブースティング
- Authors: Vasileios Iosifidis, Symeon Papadopoulos, Bodo Rosenhahn, Eirini
Ntoutsi
- Abstract要約: 本研究では,不均衡なデータに対する新たなコスト依存型ブースティング手法を提案し,このラウンドに対する誤分類コストを動的に調整する。
AdaCCと呼ばれる本手法は,昇降モデルの累積挙動に依存するため,パラメータフリーである。
- 参考スコア(独自算出の注目度): 40.942008530628016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance poses a major challenge for machine learning as most
supervised learning models might exhibit bias towards the majority class and
under-perform in the minority class. Cost-sensitive learning tackles this
problem by treating the classes differently, formulated typically via a
user-defined fixed misclassification cost matrix provided as input to the
learner. Such parameter tuning is a challenging task that requires domain
knowledge and moreover, wrong adjustments might lead to overall predictive
performance deterioration. In this work, we propose a novel cost-sensitive
boosting approach for imbalanced data that dynamically adjusts the
misclassification costs over the boosting rounds in response to model's
performance instead of using a fixed misclassification cost matrix. Our method,
called AdaCC, is parameter-free as it relies on the cumulative behavior of the
boosting model in order to adjust the misclassification costs for the next
boosting round and comes with theoretical guarantees regarding the training
error. Experiments on 27 real-world datasets from different domains with high
class imbalance demonstrate the superiority of our method over 12
state-of-the-art cost-sensitive boosting approaches exhibiting consistent
improvements in different measures, for instance, in the range of [0.3%-28.56%]
for AUC, [3.4%-21.4%] for balanced accuracy, [4.8%-45%] for gmean and
[7.4%-85.5%] for recall.
- Abstract(参考訳): クラス不均衡は、ほとんどの教師付き学習モデルが多数派に対して偏見を示し、少数派のクラスでは低パフォーマンスを示すため、機械学習にとって大きな課題となる。
コストセンシティブな学習は、学習者に入力として提供されるユーザ定義の固定型誤分類コストマトリックスを介して、クラスを異なる方法で扱うことでこの問題に対処する。
このようなパラメータチューニングはドメイン知識を必要とする困難なタスクであり、さらに間違った調整が全体的な予測性能の劣化につながる可能性がある。
本研究では,不均衡データに対して,固定型誤分類コスト行列を使わずに,モデルの性能に応答して誤分類コストを動的に調整する,新たなコスト感受性向上手法を提案する。
AdaCCと呼ばれる本手法は,次の昇降ラウンドの誤分類コストを調整するために,昇降モデルの累積挙動に依存するためパラメータフリーであり,トレーニング誤差に関する理論的保証が提供される。
例えば、AUCは[0.3%-28.56%]、バランスの取れた精度は[3.4%-21.4%]、gmeanは[4.8%-45%]、リコールは[7.4%-85.5%]である。
関連論文リスト
- Covariance-corrected Whitening Alleviates Network Degeneration on Imbalanced Classification [6.197116272789107]
クラス不均衡は画像分類において重要な問題であり、深層認識モデルの性能に大きな影響を及ぼす。
我々は、退化ソリューションを緩和するWhitening-Netと呼ばれる新しいフレームワークを提案する。
極端なクラス不均衡のシナリオでは、バッチ共分散統計は大きな変動を示し、白化操作の収束を妨げる。
論文 参考訳(メタデータ) (2024-08-30T10:49:33Z) - Electroencephalogram Emotion Recognition via AUC Maximization [0.0]
不均衡データセットは神経科学、認知科学、医学診断などの分野で大きな課題を提起する。
本研究は,DEAPデータセットにおけるライキングラベルを例として,イシュークラスの不均衡に対処する。
論文 参考訳(メタデータ) (2024-08-16T19:08:27Z) - Class-attribute Priors: Adapting Optimization to Heterogeneity and
Fairness Objective [54.33066660817495]
現代の分類問題は、個々のクラスにまたがって不均一性を示す。
本稿では,クラス固有の学習戦略を効果的かつ汎用的に生成するCAPを提案する。
CAPは先行技術と競合しており、その柔軟性により、バランスの取れた精度以上の公平性目標に対する明確なメリットが期待できる。
論文 参考訳(メタデータ) (2024-01-25T17:43:39Z) - Class Balanced Dynamic Acquisition for Domain Adaptive Semantic
Segmentation using Active Learning [3.175227858236288]
ドメイン適応型アクティブラーニングは、ニューラルネットワークのラベル効率のトレーニングにおいて電荷を導いている。
セマンティックセグメンテーションでは、最先端のモデルでは、不確実性と多様性の2つの基準を併用してトレーニングラベルを選択する。
このような手法は、現在、より大規模なアクティブな学習予算のために、その性能を低下させるクラス不均衡の問題に悩まされている。
論文 参考訳(メタデータ) (2023-11-23T18:35:26Z) - Online Continual Learning via Logit Adjusted Softmax [24.327176079085703]
訓練中のクラス間の不均衡は、忘れる主な原因として特定されている。
トレーニング中のモデルロジットの簡単な調整は、事前クラスバイアスに効果的に抵抗することができる。
提案手法であるLogit Adjusted Softmaxは,クラス増分だけでなく,現実的な一般設定においても,クラス間不均衡の影響を軽減することができる。
論文 参考訳(メタデータ) (2023-11-11T03:03:33Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Adaptive Cost-Sensitive Learning in Neural Networks for
Misclassification Cost Problems [2.8935588665357077]
誤分類コスト問題に対する適応学習アルゴリズムを設計する。
我々のアルゴリズムは、トレーニングにおけるサンプルのサブグループと、同様の予測された確率を持つテストデータセットのクラス分布の違いを橋渡しする。
本稿では,提案アルゴリズムを用いたディープニューラルネットワークが,クラス不均衡分布とクラス不均衡分布を持つ複数のバイナリ分類データセットに対して,他のアプローチと比較して,より良いコスト結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-11-14T16:19:11Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。