論文の概要: iCost: A Novel Instance Complexity Based Cost-Sensitive Learning Framework
- arxiv url: http://arxiv.org/abs/2409.13007v2
- Date: Fri, 25 Oct 2024 11:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 12:14:24.807386
- Title: iCost: A Novel Instance Complexity Based Cost-Sensitive Learning Framework
- Title(参考訳): iCost: 新たなインスタンス複雑度に基づくコスト感応学習フレームワーク
- Authors: Asif Newaz, Asif Ur Rahman Adib, Taskeed Jabid,
- Abstract要約: データにおけるクラス不均衡は、分類タスクにとって重要な課題である。
伝統的な分類アルゴリズムは多数派に偏っている。
本研究では, 複雑性に基づく新たなコスト感性アプローチ(「iCost」と呼ぶ)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Class imbalance in data presents significant challenges for classification tasks. It is fairly common and requires careful handling to obtain desirable performance. Traditional classification algorithms become biased toward the majority class. One way to alleviate the scenario is to make the classifiers cost-sensitive. This is achieved by assigning a higher misclassification cost to minority-class instances. One issue with this implementation is that all the minority-class instances are treated equally, and assigned with the same penalty value. However, the learning difficulties of all the instances are not the same. Instances that are located in the overlapping region or near the decision boundary are harder to classify, whereas those further away are easier. Without taking into consideration the instance complexity and naively weighting all the minority-class samples uniformly, results in an unwarranted bias and consequently, a higher number of misclassifications of the majority-class instances. This is undesirable and to overcome the situation, we propose a novel instance complexity-based cost-sensitive approach (termed 'iCost') in this study. We first categorize all the minority-class instances based on their difficulty level and then the instances are penalized accordingly. This ensures a more equitable instance weighting and prevents excessive penalization. The performance of the proposed approach is tested on 65 binary and 10 multiclass imbalanced datasets against the traditional cost-sensitive learning frameworks. A significant improvement in performance has been observed, demonstrating the effectiveness of the proposed strategy.
- Abstract(参考訳): データにおけるクラス不均衡は、分類タスクにとって重要な課題である。
比較的一般的で、望ましいパフォーマンスを得るためには慎重に処理する必要がある。
伝統的な分類アルゴリズムは多数派に偏っている。
シナリオを緩和する1つの方法は、分類器をコストに敏感にすることです。
これは、マイノリティクラスのインスタンスに高い分類コストを割り当てることによって達成される。
この実装の1つの問題は、すべてのマイノリティクラスインスタンスが平等に扱われ、同じペナルティ値が割り当てられることである。
しかし、すべてのインスタンスの学習困難は、同じではない。
重複する領域や決定境界付近に位置するインスタンスは分類が難しく、さらに離れたインスタンスは容易に分類できる。
インスタンスの複雑さを考慮し、すべてのマイノリティクラスのサンプルを均一に重み付けすることなしに、不確実なバイアスが発生し、その結果、多数派クラスのインスタンスの多くの誤分類が発生する。
これは望ましくないことであり、この状況を克服するために、本研究では、新しいインスタンスの複雑性に基づくコスト感受性アプローチ(「iCost」と呼ばれる)を提案する。
まず、難易度に基づいてすべてのマイノリティクラスインスタンスを分類し、それに応じてインスタンスを罰する。
これにより、より公平なインスタンスの重み付けが保証され、過剰なペナルティ化が防止される。
提案手法の性能は,65のバイナリと10のマルチクラス不均衡データセットに対して,従来のコスト依存学習フレームワークに対して検証される。
提案手法の有効性を実証し,性能を著しく改善した。
関連論文リスト
- Confronting Discrimination in Classification: Smote Based on
Marginalized Minorities in the Kernel Space for Imbalanced Data [0.0]
決定境界とサンプル近接関係に基づく新しい分類オーバーサンプリング手法を提案する。
提案手法を古典的金融詐欺データセットで検証する。
論文 参考訳(メタデータ) (2024-02-13T04:03:09Z) - Class Uncertainty: A Measure to Mitigate Class Imbalance [0.0]
授業の基数のみを考慮すると、クラス不均衡の原因となるすべての問題をカバーできるわけではない。
トレーニング事例の予測的不確実性の平均値として「クラス不確実性」を提案する。
また,SVCI-20は,クラスが同じ数のトレーニングサンプルを持つが,それらの硬さの点で異なる,新しいデータセットとしてキュレートする。
論文 参考訳(メタデータ) (2023-11-23T16:36:03Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - A Universal Unbiased Method for Classification from Aggregate
Observations [115.20235020903992]
本稿では,任意の損失に対する分類リスクを非バイアスで推定するCFAOの普遍的手法を提案する。
提案手法は,非バイアスリスク推定器によるリスクの整合性を保証するだけでなく,任意の損失に対応できる。
論文 参考訳(メタデータ) (2023-06-20T07:22:01Z) - Review of Methods for Handling Class-Imbalanced in Classification
Problems [0.0]
場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
本稿では、データレベル、アルゴリズムレベル、ハイブリッド、コスト感受性学習、ディープラーニングを含む、クラス不均衡による学習の問題に対処する最も広く使われている手法について検討する。
論文 参考訳(メタデータ) (2022-11-10T10:07:10Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Mining Minority-class Examples With Uncertainty Estimates [102.814407678425]
現実世界では、オブジェクトの発生頻度は自然にスキューされ、長い尾のクラス分布を形成する。
これらの課題を克服する効果的な、しかし簡単なアプローチを提案する。
我々のフレームワークは、抑制されたテールクラスのアクティベーションを強化し、その後、1クラスのデータ中心アプローチを使用して、テールクラスの例を効果的に識別する。
論文 参考訳(メタデータ) (2021-12-15T02:05:02Z) - Train a One-Million-Way Instance Classifier for Unsupervised Visual
Representation Learning [45.510042484456854]
本稿では、パラメトリックなインスタンスレベルの計算を用いて、データセット内のすべての画像を識別するプリテキストタスクを備えた、単純な教師なし視覚表現学習法を提案する。
全体的なフレームワークは教師付き分類モデルのレプリカであり、セマンティッククラス(犬、鳥、船など)はインスタンスIDに置き換えられる。
数千のセマンティックラベルから数百万のインスタンスラベルへの分類タスクのスケールアップは、1)大規模ソフトマックス分類器、2)インスタンスサンプルの頻度の低い訪問による緩やかな収束、3)ノイズの多い大量の負のクラスなど、特定の課題をもたらす。
論文 参考訳(メタデータ) (2021-02-09T14:44:18Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。