論文の概要: Counterfactual-based minority oversampling for imbalanced classification
- arxiv url: http://arxiv.org/abs/2008.09488v2
- Date: Wed, 23 Dec 2020 13:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:11:14.361210
- Title: Counterfactual-based minority oversampling for imbalanced classification
- Title(参考訳): 不均衡分類のための非現実的マイノリティオーバーサンプリング
- Authors: Hao Luo and Li Liu
- Abstract要約: 不均衡な分類におけるオーバーサンプリングの重要な課題は、新しい少数派標本の生成が多数派クラスの使用を無視することが多いことである。
対物理論に基づく新しいオーバーサンプリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.140929092818235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge of oversampling in imbalanced classification is that the
generation of new minority samples often neglects the usage of majority
classes, resulting in most new minority sampling spreading the whole minority
space. In view of this, we present a new oversampling framework based on the
counterfactual theory. Our framework introduces a counterfactual objective by
leveraging the rich inherent information of majority classes and explicitly
perturbing majority samples to generate new samples in the territory of
minority space. It can be analytically shown that the new minority samples
satisfy the minimum inversion, and therefore most of them locate near the
decision boundary. Empirical evaluations on benchmark datasets suggest that our
approach significantly outperforms the state-of-the-art methods.
- Abstract(参考訳): 不均衡分類のオーバーサンプリングの重要な課題は、新しいマイノリティ・サンプルの生成が多数派クラスの使用をしばしば無視し、その結果、ほとんどのマイノリティ・サンプリングがマイノリティ・スペース全体に広がることである。
この観点から, 対実理論に基づく新しいオーバーサンプリングフレームワークを提案する。
本フレームワークは,多数派集団の豊富な固有情報を活用し,多数派集団を明示的に摂動させ,少数派の領域で新たなサンプルを生成することで,対物目的を導入する。
新しいマイノリティ標本が最小の逆転を満足していることが解析的に示され、そのほとんどは決定境界付近にある。
ベンチマークデータセットに対する実証的な評価は、我々のアプローチが最先端の手法を大きく上回っていることを示唆している。
関連論文リスト
- Self-Guided Generation of Minority Samples Using Diffusion Models [57.319845580050924]
データ多様体の低密度領域に居住する少数サンプルを生成するための新しい手法を提案する。
我々のフレームワークは拡散モデルに基づいて構築されており、ガイドドサンプリングの原理を生かしている。
実データセットのベンチマーク実験により、我々のアプローチは現実的な低自由度マイノリティインスタンスを作成する能力を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-07-16T10:03:29Z) - Confronting Discrimination in Classification: Smote Based on
Marginalized Minorities in the Kernel Space for Imbalanced Data [0.0]
決定境界とサンプル近接関係に基づく新しい分類オーバーサンプリング手法を提案する。
提案手法を古典的金融詐欺データセットで検証する。
論文 参考訳(メタデータ) (2024-02-13T04:03:09Z) - Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation [24.160692009892088]
データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:46:11Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Don't Play Favorites: Minority Guidance for Diffusion Models [59.75996752040651]
本稿では,拡散モデルの生成過程をマイノリティ標本に集中させる新しい枠組みを提案する。
我々は、所望の確率レベルを持つ領域に向けて生成過程をガイドできるサンプリング技術であるマイノリティガイダンスを開発する。
論文 参考訳(メタデータ) (2023-01-29T03:08:47Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - The Majority Can Help The Minority: Context-rich Minority Oversampling
for Long-tailed Classification [20.203461156516937]
多様なマイノリティーサンプルを増補する新しいマイノリティーオーバーサンプリング法を提案する。
私たちのキーとなるアイデアは、フォアグラウンドパッチをマイノリティークラスから、豊かなコンテキストを持つ多数クラスの背景イメージに貼り付けることです。
本手法は,様々な長期分類ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-01T10:58:30Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。