論文の概要: CSMOUTE: Combined Synthetic Oversampling and Undersampling Technique for
Imbalanced Data Classification
- arxiv url: http://arxiv.org/abs/2004.03409v2
- Date: Sat, 17 Apr 2021 13:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 23:03:42.232175
- Title: CSMOUTE: Combined Synthetic Oversampling and Undersampling Technique for
Imbalanced Data Classification
- Title(参考訳): csmoute:不均衡データ分類のための合成オーバーサンプリングとアンダーサンプリングの併用
- Authors: Micha{\l} Koziarski
- Abstract要約: 本稿では,SMUTE(Synthetic Majority Undersampling Technique)の分類課題におけるデータ不均衡処理のための新しいデータレベルアルゴリズムを提案する。
我々は、SMOTEオーバサンプリングとSMUTEアンダーサンプリングを統合するCSMOUTE(Combined Synthetic Oversampling and Undersampling Technique)を併用する。
実験の結果,SMUTEアルゴリズムとCSMOUTEアルゴリズムの両方の有用性が示された。
- 参考スコア(独自算出の注目度): 1.8275108630751844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a novel data-level algorithm for handling data
imbalance in the classification task, Synthetic Majority Undersampling
Technique (SMUTE). SMUTE leverages the concept of interpolation of nearby
instances, previously introduced in the oversampling setting in SMOTE.
Furthermore, we combine both in the Combined Synthetic Oversampling and
Undersampling Technique (CSMOUTE), which integrates SMOTE oversampling with
SMUTE undersampling. The results of the conducted experimental study
demonstrate the usefulness of both the SMUTE and the CSMOUTE algorithms,
especially when combined with more complex classifiers, namely MLP and SVM, and
when applied on datasets consisting of a large number of outliers. This leads
us to a conclusion that the proposed approach shows promise for further
extensions accommodating local data characteristics, a direction discussed in
more detail in the paper.
- Abstract(参考訳): 本稿では,SMUTE(Synthetic Majority Undersampling Technique)という分類タスクにおけるデータ不均衡を扱う新しいデータレベルアルゴリズムを提案する。
SMUTEは、以前SMOTEのオーバーサンプリング設定で導入された、近くのインスタンスの補間の概念を活用する。
さらに、SMOTEオーバサンプリングとSMUTEアンダーサンプリングを統合するCSMOUTE(Combined Synthetic Oversampling and Undersampling Technique)を併用する。
実験の結果,SMUTEアルゴリズムとCSMOUTEアルゴリズム,特により複雑な分類器(MLPとSVM)と組み合わせた場合,および多数の外れ値からなるデータセットに適用した場合の有用性が示された。
この結果から,提案手法は,本論文でより詳細に論じられた,局所的なデータ特性を考慮したさらなる拡張が期待できるという結論が得られた。
関連論文リスト
- AEMLO: AutoEncoder-Guided Multi-Label Oversampling [6.255095509216069]
AEMLOは、不均衡なマルチラベルデータに対するAutoEncoder-guided Oversampling技術である。
AEMLOは、既存の最先端手法よりも優れた性能を示し、広範な実証研究を行った。
論文 参考訳(メタデータ) (2024-08-23T14:01:33Z) - A Quantum Approach to Synthetic Minority Oversampling Technique (SMOTE) [1.5186937600119894]
本稿では,機械学習データセットにおけるクラス不均衡の問題を解くために,Quantum-SMOTE法を提案する。
量子SMOTEはスワップテストや量子回転といった量子プロセスを用いて合成データポイントを生成する。
このアプローチは、Telecom Churnの公開データセットでテストされ、その影響と、さまざまな合成データの比率を決定する。
論文 参考訳(メタデータ) (2024-02-27T10:46:36Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - INGB: Informed Nonlinear Granular Ball Oversampling Framework for Noisy
Imbalanced Classification [23.9207014576848]
分類問題では、データセットは通常、不均衡、ノイズ、複雑である。
本稿では, グラニュラーボール(INGB)をオーバーサンプリングの新たな方向とする非線形オーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-03T01:55:20Z) - BSGAN: A Novel Oversampling Technique for Imbalanced Pattern
Recognitions [0.0]
クラス不均衡問題(CIP)は、予測のための非バイアスの機械学習(ML)モデルを開発する際の潜在的な課題の1つである。
CIPは、データサンプルが2つまたは複数のクラス間で等しく分散されていない場合に発生する。
本研究では,より多様なデータを生成するために,境界線SMOTEとジェネレーティブ・アドリラル・ネットワークのパワーを組み合わせたハイブリッド・オーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:02:39Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - A Novel Adaptive Minority Oversampling Technique for Improved
Classification in Data Imbalanced Scenarios [23.257891827728827]
異なるクラスに属するトレーニングサンプルの割合の不均衡は、しばしば従来の分類器の性能低下を引き起こす。
不均衡なデータに対処する新しい3ステップ手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T09:58:02Z) - Learning Affinity-Aware Upsampling for Deep Image Matting [83.02806488958399]
アップサンプリングにおける学習親和性は、ディープ・ネットワークにおけるペアワイズ・インタラクションを効果的かつ効率的に利用するためのアプローチであることを示す。
特に、コンポジション1kマッチングデータセットの結果は、A2Uが強いベースラインに対してSAD測定値の14%の相対的な改善を達成していることを示している。
最先端のマッティングネットワークと比較すると、モデル複雑度は40%に過ぎず、8%高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-11-29T05:09:43Z) - Revisiting the Sample Complexity of Sparse Spectrum Approximation of
Gaussian Processes [60.479499225746295]
本稿では,ガウス過程に対して,パラメータ空間全体に対して同時に保持可能な保証付きスケーラブルな近似を導入する。
我々の近似は、スパーススペクトルガウス過程(SSGP)のための改良されたサンプル複雑性解析から得られる。
論文 参考訳(メタデータ) (2020-11-17T05:41:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。