論文の概要: Random Walk-steered Majority Undersampling
- arxiv url: http://arxiv.org/abs/2109.12423v1
- Date: Sat, 25 Sep 2021 19:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 09:36:19.055838
- Title: Random Walk-steered Majority Undersampling
- Title(参考訳): ランダムウォークステアリングによる多数アンダーサンプリング
- Authors: Payel Sadhukhan, Arjun Pakrashi, Brian Mac Namee
- Abstract要約: RWMaU(Random Walk-steered Majority Undersampling)を提案する。
RWMaUは、クラスのバランスをとるために、クラス不均衡なデータセットの多数点をアンサンプする。
21のデータセットと3つの分類器の実証評価により、競合する手法よりもRWMaUの性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 10.227026799075215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose Random Walk-steered Majority Undersampling (RWMaU),
which undersamples the majority points of a class imbalanced dataset, in order
to balance the classes. Rather than marking the majority points which belong to
the neighborhood of a few minority points, we are interested to perceive the
closeness of the majority points to the minority class. Random walk, a powerful
tool for perceiving the proximities of connected points in a graph, is used to
identify the majority points which lie close to the minority class of a
class-imbalanced dataset. The visit frequencies and the order of visits of the
majority points in the walks enable us to perceive an overall closeness of the
majority points to the minority class. The ones lying close to the minority
class are subsequently undersampled. Empirical evaluation on 21 datasets and 3
classifiers demonstrate substantial improvement in performance of RWMaU over
the competing methods.
- Abstract(参考訳): 本研究では,クラス間のバランスをとるために,クラス不均衡データセットの多数点をアンサンプするランダムウォークステアリング(RWMaU)を提案する。
いくつかのマイノリティポイントの近傍に属する多数ポイントをマークするのではなく、マイノリティクラスに対する多数ポイントの近接性を認識したいと考えています。
グラフ内の連結点の近さを知覚する強力なツールであるランダムウォークは、クラス不均衡データセットの少数クラスに近い多数点を特定するために使用される。
来訪頻度と歩数における多数点の来訪順は、少数派に対する多数点の全体的近さを知覚することができる。
マイノリティクラスの近くに横たわる者は、その後、過小評価される。
21のデータセットと3つの分類器の実証評価により、競合する手法よりもRWMaUの性能が大幅に向上した。
関連論文リスト
- Confronting Discrimination in Classification: Smote Based on
Marginalized Minorities in the Kernel Space for Imbalanced Data [0.0]
決定境界とサンプル近接関係に基づく新しい分類オーバーサンプリング手法を提案する。
提案手法を古典的金融詐欺データセットで検証する。
論文 参考訳(メタデータ) (2024-02-13T04:03:09Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
本稿では,ラベルスキュード・フェデレーション学習の新しいアプローチであるFedVLSを紹介する。
空のクラス蒸留とロジット抑制を同時に統合する。
FedVLSの有効性を検証する実験は、従来のSOTA(State-of-the-art)法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation [24.160692009892088]
データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:46:11Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - The Majority Can Help The Minority: Context-rich Minority Oversampling
for Long-tailed Classification [20.203461156516937]
多様なマイノリティーサンプルを増補する新しいマイノリティーオーバーサンプリング法を提案する。
私たちのキーとなるアイデアは、フォアグラウンドパッチをマイノリティークラスから、豊かなコンテキストを持つ多数クラスの背景イメージに貼り付けることです。
本手法は,様々な長期分類ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-01T10:58:30Z) - Counterfactual-based minority oversampling for imbalanced classification [11.140929092818235]
不均衡な分類におけるオーバーサンプリングの重要な課題は、新しい少数派標本の生成が多数派クラスの使用を無視することが多いことである。
対物理論に基づく新しいオーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-21T14:13:15Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。