論文の概要: Improving the classification of extreme classes by means of loss regularisation and generalised beta distributions
- arxiv url: http://arxiv.org/abs/2407.12417v1
- Date: Wed, 17 Jul 2024 08:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 17:47:48.144466
- Title: Improving the classification of extreme classes by means of loss regularisation and generalised beta distributions
- Title(参考訳): 損失正規化と一般化ベータ分布による極クラス分類の改善
- Authors: Víctor Manuel Vargas, Pedro Antonio Gutiérrez, Javier Barbero-Gómez, César Hervás-Martínez,
- Abstract要約: 本稿では,一級・一級の分類性能を向上させるための一級正規化手法を提案する。
極端なクラスのパフォーマンスは、その感度を考慮に入れた新しいメトリクスを使って比較される。
提案手法により, 一般化されたベータ分布は, 極端なクラスにおける分類性能を向上することが示された。
- 参考スコア(独自算出の注目度): 8.640930010669042
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: An ordinal classification problem is one in which the target variable takes values on an ordinal scale. Nowadays, there are many of these problems associated with real-world tasks where it is crucial to accurately classify the extreme classes of the ordinal structure. In this work, we propose a unimodal regularisation approach that can be applied to any loss function to improve the classification performance of the first and last classes while maintaining good performance for the remainder. The proposed methodology is tested on six datasets with different numbers of classes, and compared with other unimodal regularisation methods in the literature. In addition, performance in the extreme classes is compared using a new metric that takes into account their sensitivities. Experimental results and statistical analysis show that the proposed methodology obtains a superior average performance considering different metrics. The results for the proposed metric show that the generalised beta distribution generally improves classification performance in the extreme classes. At the same time, the other five nominal and ordinal metrics considered show that the overall performance is aligned with the performance of previous alternatives.
- Abstract(参考訳): 順序分類問題 (ordinal classification problem) とは、対象変数が順序尺度で値を取る問題である。
今日では、順序構造の極端なクラスを正確に分類することが不可欠である実世界のタスクに関連する多くの問題が存在する。
本研究では、損失関数に適用可能な一元正則化手法を提案し、残りの性能を維持しつつ、第一クラスと最後のクラスの分類性能を向上させる。
提案手法は, クラス数が異なる6つのデータセットで検証し, 文献における他の一助正則化手法と比較した。
さらに、極度のクラスのパフォーマンスは、その感度を考慮に入れた新しいメトリクスを使って比較される。
実験結果と統計的解析により,提案手法は異なる指標を考慮し,優れた平均性能が得られることが示された。
提案手法により, 一般化されたベータ分布は, 極端なクラスにおける分類性能を向上することが示された。
同時に、考慮された他の5つの名目的および順序的な指標は、全体的なパフォーマンスが以前の選択肢のパフォーマンスと一致していることを示している。
関連論文リスト
- Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Learning Acceptance Regions for Many Classes with Anomaly Detection [19.269724165953274]
既存の集合値分類法の多くは、トレーニングデータに現れない新しいクラスがテストデータに現れる可能性を考慮していない。
テストデータに新しいクラスが存在する可能性を考慮しつつ,受入領域を推定する汎用予測セット(GPS)手法を提案する。
従来の手法とは異なり,提案手法は精度,効率,異常検出率のバランスが良好である。
論文 参考訳(メタデータ) (2022-09-20T19:40:33Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Statistical Theory for Imbalanced Binary Classification [8.93993657323783]
最適分類性能は、これまで形式化されていなかったクラス不均衡の特定の性質に依存することを示す。
具体的には、一様クラス不均衡と呼ばれる新しいクラス不均衡のサブタイプを提案する。
これらの結果は、不均衡二項分類に対する最初の有意義な有限サンプル統計理論のいくつかを提供する。
論文 参考訳(メタデータ) (2021-07-05T03:55:43Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - A Skew-Sensitive Evaluation Framework for Imbalanced Data Classification [11.125446871030734]
不均衡なデータセットのクラス分布スキューは、多数派クラスに対する予測バイアスのあるモデルにつながる可能性がある。
本稿では,不均衡なデータ分類のための簡易かつ汎用的な評価フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-12T19:47:09Z) - Appropriateness of Performance Indices for Imbalanced Data
Classification: An Analysis [15.85259386116784]
性能指標が満たさなければならない2つの基本的な条件は、各クラスからのテストインスタンスの数とテストセット内のクラス数を変更することでそれぞれ回復力を持つ必要がある。
分類器がいくつかのクラスに対して極端な性能を示す場合でも,すべてのクラスに対して分類性能に関する情報を保持する指標の能力について検討する。
論文 参考訳(メタデータ) (2020-08-26T18:23:36Z) - Classification Performance Metric for Imbalance Data Based on Recall and
Selectivity Normalized in Class Labels [0.0]
クラスラベルに正規化されたリコールと選択率の調和平均に基づく新しいパフォーマンス指標を提案する。
本稿では,提案手法が不均衡なデータセットに対して適切な特性を持つことを示す。
論文 参考訳(メタデータ) (2020-06-23T20:38:48Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。