論文の概要: Imbalanced Class Data Performance Evaluation and Improvement using Novel
Generative Adversarial Network-based Approach: SSG and GBO
- arxiv url: http://arxiv.org/abs/2210.12870v1
- Date: Sun, 23 Oct 2022 22:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 18:22:22.833873
- Title: Imbalanced Class Data Performance Evaluation and Improvement using Novel
Generative Adversarial Network-based Approach: SSG and GBO
- Title(参考訳): 新規生成型逆ネットワークアプローチによるクラスデータ性能の不均衡評価と改善:ssgとgbo
- Authors: Md Manjurul Ahsan, Md Shahin Ali, and Zahed Siddique
- Abstract要約: 本研究は, GAN-based Oversampling (GBO) と Support Vector Machine-SMOTE-GAN (SSG) の2つの新しい手法を提案する。
予備計算の結果、SSGとGBOは元のSMOTEよりも、拡張された不均衡な8つのベンチマークデータセットでより良い性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance in a dataset is one of the major challenges that can
significantly impact the performance of machine learning models resulting in
biased predictions. Numerous techniques have been proposed to address class
imbalanced problems, including, but not limited to, Oversampling,
Undersampling, and cost-sensitive approaches. Due to its ability to generate
synthetic data, oversampling techniques such as the Synthetic Minority
Oversampling Technique (SMOTE) is among the most widely used methodology by
researchers. However, one of SMOTE's potential disadvantages is that newly
created minor samples may overlap with major samples. As an effect, the
probability of ML models' biased performance towards major classes increases.
Recently, generative adversarial network (GAN) has garnered much attention due
to its ability to create almost real samples. However, GAN is hard to train
even though it has much potential. This study proposes two novel techniques:
GAN-based Oversampling (GBO) and Support Vector Machine-SMOTE-GAN (SSG) to
overcome the limitations of the existing oversampling approaches. The
preliminary computational result shows that SSG and GBO performed better on the
expanded imbalanced eight benchmark datasets than the original SMOTE. The study
also revealed that the minor sample generated by SSG demonstrates Gaussian
distributions, which is often difficult to achieve using original SMOTE.
- Abstract(参考訳): データセットにおけるクラス不均衡は、バイアスのある予測をもたらす機械学習モデルのパフォーマンスに大きく影響する大きな課題の1つである。
オーバーサンプリング、アンダーサンプリング、コストに敏感なアプローチなど、クラス不均衡の問題に対処する多くの手法が提案されている。
合成データを生成する能力のため、SMOTE(Synthetic Minority Oversampling Technique)のようなオーバーサンプリング技術は研究者によって最も広く使われている手法の一つである。
しかし、SMOTEの潜在的な欠点の1つは、新しく作られた小さなサンプルが主要なサンプルと重複する可能性があることである。
その結果、MLモデルの主要クラスに対する偏りのある性能の確率は増大する。
近年,gan(generative adversarial network)が注目を集めている。
しかし、GANは大きな可能性を秘めているにもかかわらず、訓練が難しい。
本研究は, GAN-based Oversampling (GBO) と Support Vector Machine-SMOTE-GAN (SSG) の2つの新しい手法を提案する。
予備計算結果から,ssg と gbo は拡張不均衡8つのベンチマークデータセットにおいて,smote よりも優れた性能を示した。
この研究は、SSGによって生成された小さなサンプルがガウス分布を示すことも明らかにした。
関連論文リスト
- Minimum Enclosing Ball Synthetic Minority Oversampling Technique from a Geometric Perspective [1.7851435784917604]
クラス不均衡は、データセット内の異なるクラスからのサンプルの数に顕著な違いを示す。
この問題は、ソフトウェア欠陥予測、診断、不正検出など、現実世界の分類タスクで広く使われている。
クラス不均衡問題に対処するために合成マイノリティオーバーサンプリング技術(SMOTE)が広く用いられている。
本稿では,幾何学的観点から最小閉球(MEB-SMOTE)法を提案する。
論文 参考訳(メタデータ) (2024-08-07T03:37:25Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - BSGAN: A Novel Oversampling Technique for Imbalanced Pattern
Recognitions [0.0]
クラス不均衡問題(CIP)は、予測のための非バイアスの機械学習(ML)モデルを開発する際の潜在的な課題の1つである。
CIPは、データサンプルが2つまたは複数のクラス間で等しく分散されていない場合に発生する。
本研究では,より多様なデータを生成するために,境界線SMOTEとジェネレーティブ・アドリラル・ネットワークのパワーを組み合わせたハイブリッド・オーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:02:39Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - SMOTified-GAN for class imbalanced pattern classification problems [0.41998444721319217]
本稿では,SMOTEとGANの相乗効果を持つ2相オーバーサンプリング手法を提案する。
実験の結果,様々なベンチマークデータセットにおいて,マイノリティクラス(es)のサンプル品質が向上していることが証明された。
論文 参考訳(メタデータ) (2021-08-06T06:14:05Z) - Score-based Generative Modeling in Latent Space [93.8985523558869]
スコアベース生成モデル(SGM)は,最近,サンプル品質と分布範囲の両面で顕著な結果を示した。
本稿では,Latent Score-based Generative Model (LSGM)を提案する。
データから潜在空間への移動により、より表現力のある生成モデルをトレーニングし、非連続データにSGMを適用し、よりスムーズなSGMをより小さな空間で学習することができる。
論文 参考訳(メタデータ) (2021-06-10T17:26:35Z) - Conditional Wasserstein GAN-based Oversampling of Tabular Data for
Imbalanced Learning [10.051309746913512]
本稿では,条件付きWasserstein GANに基づくオーバーサンプリング手法を提案する。
実世界の7つのデータセット上で,標準的なオーバーサンプリング手法と不均衡なベースラインに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-08-20T20:33:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。