論文の概要: Deep Synthetic Minority Over-Sampling Technique
- arxiv url: http://arxiv.org/abs/2003.09788v1
- Date: Sun, 22 Mar 2020 02:44:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 05:16:25.438246
- Title: Deep Synthetic Minority Over-Sampling Technique
- Title(参考訳): 深部合成マイノリティオーバーサンプリング技術
- Authors: Hadi Mansourifar, Weidong Shi
- Abstract要約: 我々はSMOTEの考え方をディープラーニングアーキテクチャに適用する。
ディープSMOTEは、ほとんどのテストケースにおいて、精度、F1スコア、エリアアンダーカーブ(AUC)の点で従来のSMOTEを上回っます。
- 参考スコア(独自算出の注目度): 3.3707422585608953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic Minority Over-sampling Technique (SMOTE) is the most popular
over-sampling method. However, its random nature makes the synthesized data and
even imbalanced classification results unstable. It means that in case of
running SMOTE n different times, n different synthesized in-stances are
obtained with n different classification results. To address this problem, we
adapt the SMOTE idea in deep learning architecture. In this method, a deep
neural network regression model is used to train the inputs and outputs of
traditional SMOTE. Inputs of the proposed deep regression model are two
randomly chosen data points which are concatenated to form a double size
vector. The outputs of this model are corresponding randomly interpolated data
points between two randomly chosen vectors with original dimension. The
experimental results show that, Deep SMOTE can outperform traditional SMOTE in
terms of precision, F1 score and Area Under Curve (AUC) in majority of test
cases.
- Abstract(参考訳): SMOTE(Synthetic Minority Over-Sampling Technique)は、最も一般的なオーバーサンプリング手法である。
しかし、そのランダムな性質により、合成データや不均衡な分類結果も不安定になる。
これは、SMOTE n を異なるタイミングで実行した場合、n 個の異なる分類結果によって、n 個の異なる合成インスタンスが得られることを意味する。
この問題に対処するため,我々はSMOTEのアイデアをディープラーニングアーキテクチャに適用する。
本手法では、従来のSMOTEの入力と出力をトレーニングするために、ディープニューラルネットワーク回帰モデルを用いる。
提案する深層回帰モデルの入力は、2つのランダムに選択されたデータポイントであり、これらを連結して二重サイズベクトルを形成する。
このモデルの出力は、元の次元を持つ2つのランダムに選択されたベクトル間のランダムに補間されたデータポイントに対応する。
実験結果から, ディープスモートは, 精度, f1スコア, 曲線下領域 (auc) において, 従来のスモートを上回ることができることがわかった。
関連論文リスト
- Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - CARMS: Categorical-Antithetic-REINFORCE Multi-Sample Gradient Estimator [60.799183326613395]
本稿では, 相互に負に相関した複数のサンプルに基づく分類的確率変数の非バイアス推定器を提案する。
CARMSは、ReINFORCEとコプラベースのサンプリングを組み合わせることで、重複サンプルを回避し、その分散を低減し、重要サンプリングを使用して推定器を偏りなく維持する。
我々は、生成的モデリングタスクと構造化された出力予測タスクに基づいて、いくつかのベンチマークデータセット上でCARMSを評価し、強力な自己制御ベースラインを含む競合する手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-10-26T20:14:30Z) - SMOTified-GAN for class imbalanced pattern classification problems [0.41998444721319217]
本稿では,SMOTEとGANの相乗効果を持つ2相オーバーサンプリング手法を提案する。
実験の結果,様々なベンチマークデータセットにおいて,マイノリティクラス(es)のサンプル品質が向上していることが証明された。
論文 参考訳(メタデータ) (2021-08-06T06:14:05Z) - A multi-schematic classifier-independent oversampling approach for
imbalanced datasets [0.0]
従来の研究から、異なるオーバーサンプリングアルゴリズムは異なる分類器で異なる効率の度合いを持つことが明らかである。
本稿では,マルチスキーマおよび分類器に依存しないオーバーサンプリング手法であるProWRASを用いて,この問題を克服する。
ProWRASはローカライズされたランダムアフィンシャドウサンプリング (LoRAS) アルゴリズムと Proximity Weighted Synthetic Oversampling (ProWSyn) アルゴリズムを統合している。
論文 参考訳(メタデータ) (2021-07-15T14:03:24Z) - ARMS: Antithetic-REINFORCE-Multi-Sample Gradient for Binary Variables [60.799183326613395]
ReINFORCEを用いたマルチサンプル勾配推定器
ARMSはコプラを用いて、相互に合成されたサンプルを何個でも生成する。
生成モデルを訓練するための複数のデータセット上でARMSを評価し,実験結果から競合する手法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2021-05-28T23:19:54Z) - GMOTE: Gaussian based minority oversampling technique for imbalanced
classification adapting tail probability of outliers [0.0]
データレベルのアプローチは、主にオーバーサンプリングメソッドを使用して問題を解決します。例えば、合成マイノリティオーバーサンプリング技術(SMOTE)です。
本稿では,不均衡データセットに対する統計的観点からガウス型マイノリティオーバーサンプリング手法(gmote)を提案する。
GMOTEが分類および回帰木(CART)またはサポートベクター機械(SVM)と結合されるとき、それはよりよい正確さおよびF1スコアを示します。
論文 参考訳(メタデータ) (2021-05-09T07:04:37Z) - SMOTE-ENC: A novel SMOTE-based method to generate synthetic data for
nominal and continuous features [0.38073142980733]
SMOTE-ENC (SMOTE - Encoded Nominal and Continuous) という新しいマイノリティオーバーサンプリング手法を提案する。
本実験では、SMOTE-ENC法を用いた分類モデルがSMOTE-NCを用いたモデルよりも優れた予測を提供することを示した。
提案手法は,SMOTE-NCアルゴリズムの主な制約の一つに対処する。
論文 参考訳(メタデータ) (2021-03-13T04:16:17Z) - The Integrity of Machine Learning Algorithms against Software Defect
Prediction [0.0]
本報告では,Liangらが開発したオンラインシーケンス・エクストリーム・ラーニング・マシン(OS-ELM)の性能を解析する。
OS-ELMは従来のディープニューラルネットワークよりも高速にトレーニングし、常にグローバルな最適解に収束する。
この分析は、NASAグループが実施する3つのプロジェクトKC1、PC4、PC3で実施される。
論文 参考訳(メタデータ) (2020-09-05T17:26:56Z) - RAIN: A Simple Approach for Robust and Accurate Image Classification
Networks [156.09526491791772]
既存の敵防衛手法の大部分は、予測精度を犠牲にして堅牢性を実現することが示されている。
本稿では,ロバストおよび高精度画像分類N(RAIN)と呼ぶ新しい前処理フレームワークを提案する。
RAINは入力に対してランダム化を適用して、モデルフォワード予測パスと後方勾配パスの関係を壊し、モデルロバスト性を改善する。
STL10 と ImageNet のデータセットを用いて、様々な種類の敵攻撃に対する RAIN の有効性を検証する。
論文 参考訳(メタデータ) (2020-04-24T02:03:56Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。