論文の概要: INGB: Informed Nonlinear Granular Ball Oversampling Framework for Noisy
Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2307.01224v1
- Date: Mon, 3 Jul 2023 01:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 19:33:05.278994
- Title: INGB: Informed Nonlinear Granular Ball Oversampling Framework for Noisy
Imbalanced Classification
- Title(参考訳): INGB:雑音不均衡分類のためのインフォームド非線形グラニュラーボールオーバーサンプリングフレームワーク
- Authors: Min Li, Hao Zhou, Qun Liu, Yabin Shao, and Guoying Wang
- Abstract要約: 分類問題では、データセットは通常、不均衡、ノイズ、複雑である。
本稿では, グラニュラーボール(INGB)をオーバーサンプリングの新たな方向とする非線形オーバーサンプリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.9207014576848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In classification problems, the datasets are usually imbalanced, noisy or
complex. Most sampling algorithms only make some improvements to the linear
sampling mechanism of the synthetic minority oversampling technique (SMOTE).
Nevertheless, linear oversampling has several unavoidable drawbacks. Linear
oversampling is susceptible to overfitting, and the synthetic samples lack
diversity and rarely account for the original distribution characteristics. An
informed nonlinear oversampling framework with the granular ball (INGB) as a
new direction of oversampling is proposed in this paper. It uses granular balls
to simulate the spatial distribution characteristics of datasets, and informed
entropy is utilized to further optimize the granular-ball space. Then,
nonlinear oversampling is performed by following high-dimensional sparsity and
the isotropic Gaussian distribution. Furthermore, INGB has good compatibility.
Not only can it be combined with most SMOTE-based sampling algorithms to
improve their performance, but it can also be easily extended to noisy
imbalanced multi-classification problems. The mathematical model and
theoretical proof of INGB are given in this work. Extensive experiments
demonstrate that INGB outperforms the traditional linear sampling frameworks
and algorithms in oversampling on complex datasets.
- Abstract(参考訳): 分類問題では、データセットは通常、不均衡、ノイズ、複雑である。
ほとんどのサンプリングアルゴリズムは、合成マイノリティオーバーサンプリング技術(SMOTE)の線形サンプリング機構を若干改善するだけである。
それでも、線形オーバーサンプリングには避けられない欠点がいくつかある。
線形オーバーサンプリングは過剰フィッティングの影響を受けやすく、合成試料は多様性を欠き、元の分布特性をほとんど考慮しない。
本稿では,粒状球(ingb)をオーバーサンプリングの新たな方向とする非線形オーバーサンプリングフレームワークを提案する。
グラニュラーボールを用いてデータセットの空間分布特性をシミュレーションし、インフォームドエントロピーを用いてさらにグラニュラーボール空間を最適化する。
そして、高次元空間と等方性ガウス分布を追従して非線形オーバーサンプリングを行う。
さらに、INGBは互換性が良い。
ほとんどのSMOTEベースのサンプリングアルゴリズムと組み合わせて性能を向上させるだけでなく、ノイズの多い多重分類問題にも容易に拡張できる。
ingbの数学的モデルと理論的証明はこの研究で与えられる。
広範な実験により、ingbは複雑なデータセットのオーバーサンプリングにおいて、従来の線形サンプリングフレームワークやアルゴリズムよりも優れていることが示されている。
関連論文リスト
- Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - BSGAN: A Novel Oversampling Technique for Imbalanced Pattern
Recognitions [0.0]
クラス不均衡問題(CIP)は、予測のための非バイアスの機械学習(ML)モデルを開発する際の潜在的な課題の1つである。
CIPは、データサンプルが2つまたは複数のクラス間で等しく分散されていない場合に発生する。
本研究では,より多様なデータを生成するために,境界線SMOTEとジェネレーティブ・アドリラル・ネットワークのパワーを組み合わせたハイブリッド・オーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:02:39Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - A Novel Hybrid Sampling Framework for Imbalanced Learning [0.0]
SMOTE-RUS-NC」は他の最先端サンプリング技術と比較されている。
26個の不均衡なデータセットで厳密な実験が行われた。
論文 参考訳(メタデータ) (2022-08-20T07:04:00Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Stable and Compact Face Recognition via Unlabeled Data Driven Sparse
Representation-Based Classification [39.398339531136344]
ラベル付きデータ駆動逆プロジェクション擬フルスペース表現に基づく分類モデルを提案する。
提案モデルは,すべての利用可能なデータの隠された意味情報と本質的な構造情報をマイニングすることを目的としている。
3つの公開データセットの実験により、提案したLR-S-PFSRCモデルが安定した結果が得られることが示された。
論文 参考訳(メタデータ) (2021-11-04T13:19:38Z) - A multi-schematic classifier-independent oversampling approach for
imbalanced datasets [0.0]
従来の研究から、異なるオーバーサンプリングアルゴリズムは異なる分類器で異なる効率の度合いを持つことが明らかである。
本稿では,マルチスキーマおよび分類器に依存しないオーバーサンプリング手法であるProWRASを用いて,この問題を克服する。
ProWRASはローカライズされたランダムアフィンシャドウサンプリング (LoRAS) アルゴリズムと Proximity Weighted Synthetic Oversampling (ProWSyn) アルゴリズムを統合している。
論文 参考訳(メタデータ) (2021-07-15T14:03:24Z) - GMOTE: Gaussian based minority oversampling technique for imbalanced
classification adapting tail probability of outliers [0.0]
データレベルのアプローチは、主にオーバーサンプリングメソッドを使用して問題を解決します。例えば、合成マイノリティオーバーサンプリング技術(SMOTE)です。
本稿では,不均衡データセットに対する統計的観点からガウス型マイノリティオーバーサンプリング手法(gmote)を提案する。
GMOTEが分類および回帰木(CART)またはサポートベクター機械(SVM)と結合されるとき、それはよりよい正確さおよびF1スコアを示します。
論文 参考訳(メタデータ) (2021-05-09T07:04:37Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Non-Adaptive Adaptive Sampling on Turnstile Streams [57.619901304728366]
カラムサブセット選択、部分空間近似、射影クラスタリング、および空間サブリニアを$n$で使用するターンタイルストリームのボリュームに対する最初の相対エラーアルゴリズムを提供する。
我々の適応的なサンプリング手法は、様々なデータ要約問題に多くの応用をもたらしており、これは最先端を改善するか、より緩和された行列列モデルで以前に研究されただけである。
論文 参考訳(メタデータ) (2020-04-23T05:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。