論文の概要: Rethinking Class Imbalance in Machine Learning
- arxiv url: http://arxiv.org/abs/2305.03900v1
- Date: Sat, 6 May 2023 02:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 18:56:01.295094
- Title: Rethinking Class Imbalance in Machine Learning
- Title(参考訳): 機械学習におけるクラス不均衡の再考
- Authors: Ou Wu
- Abstract要約: 不均衡学習は、クラス不均衡の存在下での学習タスクに焦点を当てた機械学習のサブフィールドである。
本研究では,機械学習におけるクラス不均衡の新しい分類法を提案する。
比例, 分散, 距離不均衡が同時に存在する場合に, 対数摂動に基づく新たな不均衡学習損失を提案する。
- 参考スコア(独自算出の注目度): 1.4467794332678536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imbalance learning is a subfield of machine learning that focuses on learning
tasks in the presence of class imbalance. Nearly all existing studies refer to
class imbalance as a proportion imbalance, where the proportion of training
samples in each class is not balanced. The ignorance of the proportion
imbalance will result in unfairness between/among classes and poor
generalization capability. Previous literature has presented numerous methods
for either theoretical/empirical analysis or new methods for imbalance
learning. This study presents a new taxonomy of class imbalance in machine
learning with a broader scope. Four other types of imbalance, namely, variance,
distance, neighborhood, and quality imbalances between/among classes, which may
exist in machine learning tasks, are summarized. Two different levels of
imbalance including global and local are also presented. Theoretical analysis
is used to illustrate the significant impact of the new imbalance types on
learning fairness. Moreover, our taxonomy and theoretical conclusions are used
to analyze the shortcomings of several classical methods. As an example, we
propose a new logit perturbation-based imbalance learning loss when proportion,
variance, and distance imbalances exist simultaneously. Several classical
losses become the special case of our proposed method. Meta learning is
utilized to infer the hyper-parameters related to the three types of imbalance.
Experimental results on several benchmark corpora validate the effectiveness of
the proposed method.
- Abstract(参考訳): 不均衡学習は、クラス不均衡の存在下での学習タスクに焦点を当てた機械学習のサブフィールドである。
既存の研究のほとんどはクラス不均衡を比例不均衡と呼び、各クラスにおけるトレーニングサンプルの割合はバランスが取れない。
比例不均衡の無知は、クラス間の不公平と一般化能力の低下をもたらす。
従来の文献では、理論的・経験的分析の手法や、不均衡学習の新しい手法が数多く提案されている。
本研究では,機械学習におけるクラス不均衡の新しい分類法を提案する。
その他の4種類の不均衡、すなわち分散、距離、近傍、および機械学習タスクに存在するかもしれないクラス間の品質不均衡を要約する。
グローバルとローカルを含む2つの異なる不均衡レベルも提示される。
理論解析は、新しい不均衡型が学習公正性に重大な影響を与えることを示すために用いられる。
さらに,本分類学と理論的結論は,いくつかの古典的手法の欠点を分析するために用いられる。
例えば,比例,分散,距離不均衡が同時に発生する場合の,新しいロジット摂動に基づく不均衡学習損失を提案する。
いくつかの古典的損失が提案手法の特別な場合となる。
メタ学習は、3種類の不均衡に関連するハイパーパラメータを推測するために利用される。
複数のベンチマークコーパスを用いた実験により,提案手法の有効性が検証された。
関連論文リスト
- Balanced Data, Imbalanced Spectra: Unveiling Class Disparities with Spectral Imbalance [11.924440950433658]
クラス格差の潜在的な源として,特徴量におけるスペクトル不均衡の概念を導入する。
高次元混合モデル設定におけるクラスごとの誤差の正確な式を導出する。
我々はこの現象を11種類の最先端事前訓練エンコーダで研究した。
論文 参考訳(メタデータ) (2024-02-18T23:59:54Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - Towards Inter-class and Intra-class Imbalance in Class-imbalanced
Learning [24.01370257373491]
不均衡学習(IL)は、データマイニングアプリケーションに広く存在する重要な問題である。
本稿では,多目的アンサンブル学習フレームワークである Duple-Balanced Ensemble について述べる。
一般的な手法とは異なり、DUBEは、重い距離ベースの計算に頼ることなく、クラス間およびクラス内バランスを直接実行する。
論文 参考訳(メタデータ) (2021-11-24T20:50:54Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Energy Aligning for Biased Models [39.00256193731365]
クラス不均衡データのトレーニングは通常、多数クラスのサンプルを予測する傾向にあるバイアスのあるモデルをもたらす。
本稿では, バイアスを除去する簡易かつ効果的なEnergy Aligning法を提案する。
実験結果から,エネルギー整合性はクラス不均衡問題を効果的に軽減し,いくつかのベンチマークで最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-06-07T05:12:26Z) - Few-Shot Learning with Class Imbalance [13.60699610822265]
少数ショット学習は、クエリセットから取得したサンプルを一般化するために、サポートセットに与えられた限られた数のラベル付きサンプルでモデルをトレーニングすることを目的としている。
標準設定では、サポートセットは各クラスに対して等しい量のデータポイントを含んでいる。
本稿では,メタデータセット対タスク不均衡,異なる不均衡分布の効果(線形,ステップ,ランダム),再バランス手法の効果の3つの軸に沿ったクラス不均衡について詳細に検討する。
論文 参考訳(メタデータ) (2021-01-07T12:54:32Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。