論文の概要: Does Adversarial Oversampling Help us?
- arxiv url: http://arxiv.org/abs/2108.10697v1
- Date: Fri, 20 Aug 2021 05:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 01:59:04.080170
- Title: Does Adversarial Oversampling Help us?
- Title(参考訳): adversarial oversampingは私たちに役立つか?
- Authors: Tanmoy Dam, Md Meftahul Ferdaus, Sreenatha G. Anavatti, Senthilnath
Jayavelu, Hussein A. Abbass
- Abstract要約: 本稿では,データセットのクラス不均衡を処理するために,3人のプレイヤーによるゲームベースのエンドツーエンド手法を提案する。
本稿では,敵対的マイノリティ・オーバーサンプリングではなく,敵対的オーバーサンプリング (AO) とデータ空間・オーバーサンプリング (DO) のアプローチを提案する。
提案手法の有効性を高次元・高不均衡・大規模マルチクラスデータセットを用いて検証した。
- 参考スコア(独自算出の注目度): 10.210871872870737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional oversampling methods are generally employed to handle class
imbalance in datasets. This oversampling approach is independent of the
classifier; thus, it does not offer an end-to-end solution. To overcome this,
we propose a three-player adversarial game-based end-to-end method, where a
domain-constraints mixture of generators, a discriminator, and a multi-class
classifier are used. Rather than adversarial minority oversampling, we propose
an adversarial oversampling (AO) and a data-space oversampling (DO) approach.
In AO, the generator updates by fooling both the classifier and discriminator,
however, in DO, it updates by favoring the classifier and fooling the
discriminator. While updating the classifier, it considers both the real and
synthetically generated samples in AO. But, in DO, it favors the real samples
and fools the subset class-specific generated samples. To mitigate the biases
of a classifier towards the majority class, minority samples are over-sampled
at a fractional rate. Such implementation is shown to provide more robust
classification boundaries. The effectiveness of our proposed method has been
validated with high-dimensional, highly imbalanced and large-scale multi-class
tabular datasets. The results as measured by average class specific accuracy
(ACSA) clearly indicate that the proposed method provides better classification
accuracy (improvement in the range of 0.7% to 49.27%) as compared to the
baseline classifier.
- Abstract(参考訳): 従来のオーバーサンプリング手法は、データセットのクラス不均衡を処理するために一般的に使用される。
このオーバーサンプリングアプローチは分類器とは独立であり、エンドツーエンドのソリューションを提供しない。
そこで本研究では,ジェネレータ,判別器,マルチクラス分類器のドメイン制約を混合した3プレイヤー対局型エンド・ツー・エンド方式を提案する。
敵対的なマイノリティオーバーサンプリングではなく、adversarial oversampling(ao)とdata-space oversampling(do)アプローチを提案する。
AOでは、ジェネレータは分類器と識別器の両方を騙して更新するが、DOでは分類器を好んで識別器を騙して更新する。
分類器を更新する際、AOの実際のサンプルと合成されたサンプルの両方を考慮する。
しかしdoでは、実際のサンプルを好み、サブセットクラス固有の生成されたサンプルをだまします。
多数派クラスに対する分類器のバイアスを軽減するため、少数派サンプルは分数率で過剰サンプリングされる。
このような実装はより堅牢な分類境界を提供する。
提案手法の有効性は,高次元・高度不均衡・大規模多クラス表型データセットを用いて検証した。
平均クラス特定精度 (ACSA) によって測定された結果, 提案手法は, ベースライン分類器と比較して, より良い分類精度(0.7%から49.27%の範囲での改善)を提供することが示された。
関連論文リスト
- Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Imbalanced Classification via a Tabular Translation GAN [4.864819846886142]
本稿では,多数のサンプルを対応する合成マイノリティ標本にマッピングするために,新たな正規化損失を用いたジェネレーティブ・アドバイサル・ネットワークに基づくモデルを提案する。
提案手法は, 再加重法やオーバーサンプリング法と比較して, 平均精度を向上することを示す。
論文 参考訳(メタデータ) (2022-04-19T06:02:53Z) - GMOTE: Gaussian based minority oversampling technique for imbalanced
classification adapting tail probability of outliers [0.0]
データレベルのアプローチは、主にオーバーサンプリングメソッドを使用して問題を解決します。例えば、合成マイノリティオーバーサンプリング技術(SMOTE)です。
本稿では,不均衡データセットに対する統計的観点からガウス型マイノリティオーバーサンプリング手法(gmote)を提案する。
GMOTEが分類および回帰木(CART)またはサポートベクター機械(SVM)と結合されるとき、それはよりよい正確さおよびF1スコアを示します。
論文 参考訳(メタデータ) (2021-05-09T07:04:37Z) - A Novel Adaptive Minority Oversampling Technique for Improved
Classification in Data Imbalanced Scenarios [23.257891827728827]
異なるクラスに属するトレーニングサンプルの割合の不均衡は、しばしば従来の分類器の性能低下を引き起こす。
不均衡なデータに対処する新しい3ステップ手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T09:58:02Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Conditional Wasserstein GAN-based Oversampling of Tabular Data for
Imbalanced Learning [10.051309746913512]
本稿では,条件付きWasserstein GANに基づくオーバーサンプリング手法を提案する。
実世界の7つのデータセット上で,標準的なオーバーサンプリング手法と不均衡なベースラインに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-08-20T20:33:56Z) - Dynamic Decision Boundary for One-class Classifiers applied to
non-uniformly Sampled Data [0.9569316316728905]
パターン認識の典型的な問題は、一様でないサンプルデータである。
本稿では,動的決定境界を持つ最小スパンニング木に基づく一クラス分類器を提案する。
論文 参考訳(メタデータ) (2020-04-05T18:29:36Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。