論文の概要: Sharp error bounds for imbalanced classification: how many examples in
the minority class?
- arxiv url: http://arxiv.org/abs/2310.14826v1
- Date: Mon, 23 Oct 2023 11:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 20:41:27.592254
- Title: Sharp error bounds for imbalanced classification: how many examples in
the minority class?
- Title(参考訳): 不均衡分類におけるシャープエラー境界:マイノリティクラスの例は何例か?
- Authors: Anass Aghbalou, Fran\c{c}ois Portier, Anne Sabourin
- Abstract要約: 損失関数の再重み付け(英: reweighting the loss function)は、リスク測度内の真正と真負の率の平衡を許容する標準手順である。
この領域における重要な理論的研究にもかかわらず、既存の結果は不均衡な分類フレームワークにおける主要な課題に適切に対処していない。
希少なクラス確率がゼロに近づくような環境では、2つの寄与を示す。
- 参考スコア(独自算出の注目度): 1.6223631948455797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When dealing with imbalanced classification data, reweighting the loss
function is a standard procedure allowing to equilibrate between the true
positive and true negative rates within the risk measure. Despite significant
theoretical work in this area, existing results do not adequately address a
main challenge within the imbalanced classification framework, which is the
negligible size of one class in relation to the full sample size and the need
to rescale the risk function by a probability tending to zero. To address this
gap, we present two novel contributions in the setting where the rare class
probability approaches zero: (1) a non asymptotic fast rate probability bound
for constrained balanced empirical risk minimization, and (2) a consistent
upper bound for balanced nearest neighbors estimates. Our findings provide a
clearer understanding of the benefits of class-weighting in realistic settings,
opening new avenues for further research in this field.
- Abstract(参考訳): 不均衡な分類データを扱う場合、損失関数の再重み付けは、リスク尺度内の真正と真負のレートの平衡を許容する標準手順である。
この領域における重要な理論的研究にもかかわらず、既存の結果は、完全なサンプルサイズとリスク関数をゼロに傾向のある確率で再スケールする必要性に関して、1つのクラスの無視できる大きさである、不均衡分類フレームワークにおける主な課題に十分に対処していない。
このギャップに対処するために,(1)制約付きバランス付き経験的リスク最小化に拘束された非漸近的高速レート確率,(2)バランス付き近辺推定値の一貫した上限という,レアクラス確率がゼロに近づく設定において,新たな2つの貢献を提示する。
本研究は, 現実的な環境下でのクラス重み付けのメリットを明確に把握し, さらなる研究の道を開くものである。
関連論文リスト
- Rethinking generalization of classifiers in separable classes scenarios and over-parameterized regimes [0.0]
分離可能なクラスでは、トレーニングデータ n の数で「悪い」大域最小値の割合が指数関数的に減少することを示す。
本稿では,MNIST と CIFAR-10 の実験と整合した学習曲線を求める,真の誤差の密度分布のモデルを提案する。
論文 参考訳(メタデータ) (2024-10-22T10:12:57Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Divide-and-Conquer Hard-thresholding Rules in High-dimensional
Imbalanced Classification [1.0312968200748118]
高次元の線形判別分析(LDA)における不均衡クラスサイズの影響について検討した。
マイノリティ・クラスと呼ばれる1つのクラスのデータの不足により、LDAはマイノリティ・クラスを無視し、最大誤分類率を得ることを示す。
そこで本研究では,不等式化率の大きな差を低減させる分割・対数法に基づくハードコンカレンスルールの新たな構成法を提案する。
論文 参考訳(メタデータ) (2021-11-05T07:44:28Z) - Statistical Theory for Imbalanced Binary Classification [8.93993657323783]
最適分類性能は、これまで形式化されていなかったクラス不均衡の特定の性質に依存することを示す。
具体的には、一様クラス不均衡と呼ばれる新しいクラス不均衡のサブタイプを提案する。
これらの結果は、不均衡二項分類に対する最初の有意義な有限サンプル統計理論のいくつかを提供する。
論文 参考訳(メタデータ) (2021-07-05T03:55:43Z) - Risk Bounds and Rademacher Complexity in Batch Reinforcement Learning [36.015585972493575]
本稿では,一般値関数近似を用いたバッチ強化学習(RL)について考察する。
Empirical Risk Minimizer (ERM) の過剰リスクは、関数クラスの Rademacher 複雑性によって有界である。
高速統計率は局所ラデマッハ複雑性のツールを使用することで達成できる。
論文 参考訳(メタデータ) (2021-03-25T14:45:29Z) - On Focal Loss for Class-Posterior Probability Estimation: A Theoretical
Perspective [83.19406301934245]
まず、焦点損失が分類校正されたこと、すなわち、最小化器がベイズ最適分類器を確実に得ることを証明する。
すると、焦点損失が厳密には適切でないことを証明し、すなわち、分類器の信頼性スコアが真のクラス後確率と一致しない。
提案手法は,クラス後確率推定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-18T09:36:52Z) - Imbalanced Image Classification with Complement Cross Entropy [10.35173901214638]
不正なクラスにおける出力スコアをほとんど無視するクロスエントロピーの研究を行う。
本研究は,不規則なクラスにおける予測確率が不均衡画像分類の予測精度を向上させることを明らかにする。
提案された損失により、基底真理クラスは他のクラスをソフトマックス確率で圧倒する。
論文 参考訳(メタデータ) (2020-09-04T13:46:24Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。