論文の概要: BSGAN: A Novel Oversampling Technique for Imbalanced Pattern
Recognitions
- arxiv url: http://arxiv.org/abs/2305.09777v1
- Date: Tue, 16 May 2023 20:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:42:29.697800
- Title: BSGAN: A Novel Oversampling Technique for Imbalanced Pattern
Recognitions
- Title(参考訳): BSGAN:不均衡パターン認識のための新しいオーバーサンプリング手法
- Authors: Md Manjurul Ahsan, Shivakumar Raman, Zahed Siddique
- Abstract要約: クラス不均衡問題(CIP)は、予測のための非バイアスの機械学習(ML)モデルを開発する際の潜在的な課題の1つである。
CIPは、データサンプルが2つまたは複数のクラス間で等しく分散されていない場合に発生する。
本研究では,より多様なデータを生成するために,境界線SMOTEとジェネレーティブ・アドリラル・ネットワークのパワーを組み合わせたハイブリッド・オーバーサンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalanced problems (CIP) are one of the potential challenges in
developing unbiased Machine Learning (ML) models for predictions. CIP occurs
when data samples are not equally distributed between the two or multiple
classes. Borderline-Synthetic Minority Oversampling Techniques (SMOTE) is one
of the approaches that has been used to balance the imbalance data by
oversampling the minor (limited) samples. One of the potential drawbacks of
existing Borderline-SMOTE is that it focuses on the data samples that lay at
the border point and gives more attention to the extreme observations,
ultimately limiting the creation of more diverse data after oversampling, and
that is the almost scenario for the most of the borderline-SMOTE based
oversampling strategies. As an effect, marginalization occurs after
oversampling. To address these issues, in this work, we propose a hybrid
oversampling technique by combining the power of borderline SMOTE and
Generative Adversarial Network to generate more diverse data that follow
Gaussian distributions. We named it BSGAN and tested it on four highly
imbalanced datasets: Ecoli, Wine quality, Yeast, and Abalone. Our preliminary
computational results reveal that BSGAN outperformed existing borderline SMOTE
and GAN-based oversampling techniques and created a more diverse dataset that
follows normal distribution after oversampling effect.
- Abstract(参考訳): クラス不均衡問題(CIP)は、予測のための未バイアス機械学習(ML)モデルを開発する際の潜在的な課題の1つである。
CIPは、データサンプルが2つまたは複数のクラス間で等しく分散されていない場合に発生する。
Borderline-Synthetic Minority Oversampling Techniques (SMOTE) は、マイナー(限定)サンプルをオーバーサンプリングすることで、不均衡データのバランスをとるために使用される手法の1つである。
既存のborderline-smoteの潜在的な欠点の1つは、境界点にあるデータサンプルに注目し、極端な観察により多くの注意を向けることであり、オーバーサンプリング後のより多様なデータの作成を最終的に制限することであり、これは、borderline-smoteベースのオーバーサンプリング戦略の大部分にとって、ほぼシナリオである。
その結果、オーバーサンプリング後に限界化が発生する。
これらの課題に対処するため,本稿では,境界線SMOTEとジェネレーティブ・アドバイザリアル・ネットワークのパワーを組み合わせて,ガウス分布に従うより多様なデータを生成するハイブリッド・オーバーサンプリング手法を提案する。
bsganと命名し、ecoli、ワインの品質、酵母、アワビという4つの非常に不均衡なデータセットでテストしました。
予備計算の結果,BSGAN は既存の境界線 SMOTE と GAN に基づくオーバーサンプリング技術より優れており,オーバーサンプリング効果の後に正規分布に従うより多様なデータセットを作成した。
関連論文リスト
- Minimum Enclosing Ball Synthetic Minority Oversampling Technique from a Geometric Perspective [1.7851435784917604]
クラス不均衡は、データセット内の異なるクラスからのサンプルの数に顕著な違いを示す。
この問題は、ソフトウェア欠陥予測、診断、不正検出など、現実世界の分類タスクで広く使われている。
クラス不均衡問題に対処するために合成マイノリティオーバーサンプリング技術(SMOTE)が広く用いられている。
本稿では,幾何学的観点から最小閉球(MEB-SMOTE)法を提案する。
論文 参考訳(メタデータ) (2024-08-07T03:37:25Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - INGB: Informed Nonlinear Granular Ball Oversampling Framework for Noisy
Imbalanced Classification [23.9207014576848]
分類問題では、データセットは通常、不均衡、ノイズ、複雑である。
本稿では, グラニュラーボール(INGB)をオーバーサンプリングの新たな方向とする非線形オーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-03T01:55:20Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Imbalanced Class Data Performance Evaluation and Improvement using Novel
Generative Adversarial Network-based Approach: SSG and GBO [0.0]
本研究は, GAN-based Oversampling (GBO) と Support Vector Machine-SMOTE-GAN (SSG) の2つの新しい手法を提案する。
予備計算の結果、SSGとGBOは元のSMOTEよりも、拡張された不均衡な8つのベンチマークデータセットでより良い性能を示した。
論文 参考訳(メタデータ) (2022-10-23T22:17:54Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - A Novel Hybrid Sampling Framework for Imbalanced Learning [0.0]
SMOTE-RUS-NC」は他の最先端サンプリング技術と比較されている。
26個の不均衡なデータセットで厳密な実験が行われた。
論文 参考訳(メタデータ) (2022-08-20T07:04:00Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - UGRWO-Sampling for COVID-19 dataset: A modified random walk
under-sampling approach based on graphs to imbalanced data classification [2.15242029196761]
本稿では,不均衡なデータセットのグラフに基づく新しいRWO-Sampling(Random Walk Over-Sampling)を提案する。
アンダーサンプリング法とオーバーサンプリング法に基づく2つのスキームを導入し,ノイズや外れ値に対して近接情報を堅牢に保つ。
論文 参考訳(メタデータ) (2020-02-10T03:29:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。