論文の概要: Anchor-based oversampling for imbalanced tabular data via contrastive and adversarial learning
- arxiv url: http://arxiv.org/abs/2503.18569v1
- Date: Mon, 24 Mar 2025 11:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:38:08.392947
- Title: Anchor-based oversampling for imbalanced tabular data via contrastive and adversarial learning
- Title(参考訳): コントラスト学習と逆学習による不均衡表データのアンカーによるオーバーサンプリング
- Authors: Hadi Mohammadi, Ehsan Nazerfard, Mostafa Haghir Chehreghani,
- Abstract要約: 不均衡データは、一方のクラス(マイノリティ)が他方(マイノリティ)よりも多く処理された周波数の分布を表す。
不均衡学習では、分類アルゴリズムは通常、多数派を正確に分類する傾向があり、結果として人工的に高い精度が得られる。
本研究では,不均衡学習課題に取り組むために,境界アンカーサンプルに基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.7446241148152253
- License:
- Abstract: Imbalanced data represent a distribution with more frequencies of one class (majority) than the other (minority). This phenomenon occurs across various domains, such as security, medical care and human activity. In imbalanced learning, classification algorithms are typically inclined to classify the majority class accurately, resulting in artificially high accuracy rates. As a result, many minority samples are mistakenly labelled as majority-class instances, resulting in a bias that benefits the majority class. This study presents a framework based on boundary anchor samples to tackle the imbalance learning challenge. First, we select and use anchor samples to train a multilayer perceptron (MLP) classifier, which acts as a prior knowledge model and aids the adversarial and contrastive learning procedures. Then, we designed a novel deep generative model called Anchor Stabilized Conditional Generative Adversarial Network or Anch-SCGAN in short. Anch-SCGAN is supported with two generators for the minority and majority classes and a discriminator incorporating additional class-specific information from the pre-trained feature extractor MLP. In addition, we facilitate the generator's training procedure in two ways. First, we define a new generator loss function based on reprocessed anchor samples and contrastive learning. Second, we apply a scoring strategy to stabilize the adversarial training part in generators. We train Anch-SCGAN and further finetune it with anchor samples to improve the precision of the generated samples. Our experiments on 16 real-world imbalanced datasets illustrate that Anch-SCGAN outperforms the renowned methods in imbalanced learning.
- Abstract(参考訳): 不均衡データは、他の(マイノリティ)よりも1つのクラス(マジョリティ)の周波数の多い分布を表す。
この現象は、セキュリティ、医療、人間の活動など、様々な領域にまたがって起こる。
不均衡学習では、分類アルゴリズムは通常、多数派を正確に分類する傾向があり、結果として人工的に高い精度が得られる。
その結果、多くのマイノリティなサンプルは誤ってマジョリティクラスのインスタンスとラベル付けされ、結果としてマジョリティクラスの恩恵を受けるバイアスとなる。
本研究では,不均衡学習課題に取り組むために,境界アンカーサンプルに基づくフレームワークを提案する。
まず,先行知識モデルとして機能する多層パーセプトロン(MLP)分類器を訓練するために,アンカーサンプルを選択して使用し,対向的および対照的な学習手順を支援する。
そこで我々は,Anchor Stabilized Conditional Generative Adversarial Network あるいは Anch-SCGAN と呼ばれる新しい深層生成モデルを構築した。
Anch-SCGANは、マイノリティクラスとマジョリティクラスのための2つのジェネレータと、事前訓練された特徴抽出器MLPから追加のクラス固有情報を含む識別器でサポートされている。
さらに, 発電機の訓練手順を2つの方法で促進する。
まず、再処理されたアンカーサンプルとコントラスト学習に基づいて、新しいジェネレータ損失関数を定義する。
第2に, 発電機の対向訓練部を安定させるために, スコアリング戦略を適用した。
我々は、Anch-SCGANを訓練し、さらにアンカーサンプルを微調整して、生成されたサンプルの精度を向上させる。
16個の実世界の不均衡データセットに対する実験により、Anch-SCGANは不均衡学習における有名な手法よりも優れていることが示された。
関連論文リスト
- Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - IB-GAN: A Unified Approach for Multivariate Time Series Classification
under Class Imbalance [1.854931308524932]
GAN(Generative Adversarial Networks)による非パラメトリックデータ拡張は、有望なソリューションを提供する。
本稿では,データ拡張と分類を1段階のプロセスで結合する新しい手法であるImputation Balanced GAN(IB-GAN)を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:31:16Z) - Does Adversarial Oversampling Help us? [10.210871872870737]
本稿では,データセットのクラス不均衡を処理するために,3人のプレイヤーによるゲームベースのエンドツーエンド手法を提案する。
本稿では,敵対的マイノリティ・オーバーサンプリングではなく,敵対的オーバーサンプリング (AO) とデータ空間・オーバーサンプリング (DO) のアプローチを提案する。
提案手法の有効性を高次元・高不均衡・大規模マルチクラスデータセットを用いて検証した。
論文 参考訳(メタデータ) (2021-08-20T05:43:17Z) - eGAN: Unsupervised approach to class imbalance using transfer learning [8.100450025624443]
クラス不均衡は、多くの機械学習分類タスクに固有の問題である。
予め訓練された画像分類モデルからエンコーダベースのGenerative Adversarial Network(eGAN)への転送学習を活用することにより、これらの不均衡に対処するための監督されていないアプローチを検討する。
CIFAR-10分類タスクにおいて0.69 F1-scoreの結果が1:2500の不均衡比で得られた。
論文 参考訳(メタデータ) (2021-04-09T02:37:55Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。