論文の概要: GMOTE: Gaussian based minority oversampling technique for imbalanced
classification adapting tail probability of outliers
- arxiv url: http://arxiv.org/abs/2105.03855v1
- Date: Sun, 9 May 2021 07:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 08:59:21.131653
- Title: GMOTE: Gaussian based minority oversampling technique for imbalanced
classification adapting tail probability of outliers
- Title(参考訳): gmote:gaussian based minor oversampling technique for unbalanced classification adapting tail probability of outliers
- Authors: Seung Jee Yang, Kyung Joon Cha
- Abstract要約: データレベルのアプローチは、主にオーバーサンプリングメソッドを使用して問題を解決します。例えば、合成マイノリティオーバーサンプリング技術(SMOTE)です。
本稿では,不均衡データセットに対する統計的観点からガウス型マイノリティオーバーサンプリング手法(gmote)を提案する。
GMOTEが分類および回帰木(CART)またはサポートベクター機械(SVM)と結合されるとき、それはよりよい正確さおよびF1スコアを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification of imbalanced data is one of the common problems in the recent
field of data mining. Imbalanced data substantially affects the performance of
standard classification models. Data-level approaches mainly use the
oversampling methods to solve the problem, such as synthetic minority
oversampling Technique (SMOTE). However, since the methods such as SMOTE
generate instances by linear interpolation, synthetic data space may look like
a polygonal. Also, the oversampling methods generate outliers of the minority
class. In this paper, we proposed Gaussian based minority oversampling
technique (GMOTE) with a statistical perspective for imbalanced datasets. To
avoid linear interpolation and to consider outliers, this proposed method
generates instances by the Gaussian Mixture Model. Motivated by
clustering-based multivariate Gaussian outlier score (CMGOS), we propose to
adapt tail probability of instances through the Mahalanobis distance to
consider local outliers. The experiment was carried out on a representative set
of benchmark datasets. The performance of the GMOTE is compared with other
methods such as SMOTE. When the GMOTE is combined with classification and
regression tree (CART) or support vector machine (SVM), it shows better
accuracy and F1-Score. Experimental results demonstrate the robust performance.
- Abstract(参考訳): 不均衡データの分類は、最近のデータマイニングにおける一般的な問題の1つである。
不均衡データは標準分類モデルの性能に大きく影響する。
データレベルのアプローチは、主に、合成的マイノリティオーバーサンプリング技術(smote:synthetic minor oversampling technique)など、問題を解決するためにオーバーサンプリング手法を使用する。
しかし、SMOTEのような手法は線形補間によってインスタンスを生成するため、合成データ空間は多角形に見える。
また、オーバーサンプリング手法はマイノリティクラスの外れ値を生成する。
本稿では,不均衡データセットに対する統計的観点からガウス型マイノリティオーバーサンプリング手法(gmote)を提案する。
線形補間を回避し,外れ値を考えるため,提案手法はガウス混合モデルを用いてインスタンスを生成する。
クラスタリングに基づく多変量gaussian outlier score (cmgos) に動機づけられ,マハラノビス距離を通じてインスタンスのテール確率を適応させ,局所アウトリアーを考える。
実験は、ベンチマークデータセットの代表セットで実施された。
GMOTEの性能はSMOTEなどの他の手法と比較される。
GMOTEを分類回帰木(CART)やサポートベクトルマシン(SVM)と組み合わせると、精度とF1スコアが向上する。
実験結果はロバストな性能を示す。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - SUnAA: Sparse Unmixing using Archetypal Analysis [62.997667081978825]
本稿では, 古細菌スパルス解析(SUnAA)を用いた新しい地質学的エラーマップ手法を提案する。
まず,古細菌スパース解析(SunAA)に基づく新しいモデルの設計を行う。
論文 参考訳(メタデータ) (2023-08-09T07:58:33Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Does Adversarial Oversampling Help us? [10.210871872870737]
本稿では,データセットのクラス不均衡を処理するために,3人のプレイヤーによるゲームベースのエンドツーエンド手法を提案する。
本稿では,敵対的マイノリティ・オーバーサンプリングではなく,敵対的オーバーサンプリング (AO) とデータ空間・オーバーサンプリング (DO) のアプローチを提案する。
提案手法の有効性を高次元・高不均衡・大規模マルチクラスデータセットを用いて検証した。
論文 参考訳(メタデータ) (2021-08-20T05:43:17Z) - SMOTified-GAN for class imbalanced pattern classification problems [0.41998444721319217]
本稿では,SMOTEとGANの相乗効果を持つ2相オーバーサンプリング手法を提案する。
実験の結果,様々なベンチマークデータセットにおいて,マイノリティクラス(es)のサンプル品質が向上していることが証明された。
論文 参考訳(メタデータ) (2021-08-06T06:14:05Z) - Conditional Wasserstein GAN-based Oversampling of Tabular Data for
Imbalanced Learning [10.051309746913512]
本稿では,条件付きWasserstein GANに基づくオーバーサンプリング手法を提案する。
実世界の7つのデータセット上で,標準的なオーバーサンプリング手法と不均衡なベースラインに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-08-20T20:33:56Z) - Handling missing data in model-based clustering [0.0]
欠損データの存在下でガウス混合体を適合させる2つの方法を提案する。
どちらの手法もデータ拡張のためにモンテカルロ予測最大化アルゴリズムの変種を用いる。
提案手法はクラスタ同定と密度推定の両面で多重計算手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-04T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。