論文の概要: Rebalancing with Calibrated Sub-classes (RCS): An Enhanced Approach for Robust Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2510.13656v1
- Date: Fri, 10 Oct 2025 00:06:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.73131
- Title: Rebalancing with Calibrated Sub-classes (RCS): An Enhanced Approach for Robust Imbalanced Classification
- Title(参考訳): キャリブレーションサブクラス(RCS)によるリバランシング : ロバスト不均衡分類の高度化
- Authors: Priyobrata Mondal, Faizanuddin Ansari, Swagatam Das,
- Abstract要約: 本稿では,キャリブレートサブクラス(RCS: Calibrated Sub-classes)を用いた分散校正手法を提案する。
エンコーダ・デコーダネットワークは、不均衡なデータの構造を保ち、絡み合いを防止するために訓練される。
本手法は,周辺地域のデータポイントの分布を利用してパラメータを校正する。
- 参考スコア(独自算出の注目度): 16.993547305381327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The class imbalance problem refers to the insufficiency of data in certain classes, which causes a classifier to be biased toward the majority class. Distribution calibration is a technique that seeks to estimate a more accurate class distribution based on an observed or estimated one. To address this issue, we propose a distribution calibration-based method-Rebalancing with Calibrated Sub-classes (RCS): An Enhanced Approach for Robust Imbalanced Classification, which estimates the distribution parameters of the minority classes using weighted parameters derived from a mixture of Gaussian components from both the majority and intermediate classes. An encoder-decoder network is trained to preserve the structure of the imbalanced data and prevent disentanglement. After training, feature vectors extracted from the encoder are used to generate synthetic samples through our distribution calibration strategy. This approach effectively mitigates the overgeneralization problem that arises when only the distribution of the majority class is used to approximate the minority class statistics. Instead, our method calibrates the parameters by leveraging the distribution of data points in neighboring regions. Experimental results demonstrate that the proposed method achieves superior classification performance compared to several baseline and state-of-the-art techniques across a diverse range of image, text, and tabular datasets.
- Abstract(参考訳): クラス不均衡問題(クラス不均衡問題)は、あるクラスにおけるデータの不十分さを指し、それによって分類器が多数派に偏りを生じさせる。
分布キャリブレーション(英: Distribution calibration)とは、より正確なクラス分布を観測または推定値に基づいて推定する手法である。
そこで本研究では,分散キャリブレーションに基づくメソッド・リバランシングとキャリブレーション・サブクラス(RCS:Rebalancing with Calibrated Sub-classes)を提案する: 多数クラスと中間クラスの両方からガウス成分を混合した重み付きパラメータを用いて,少数クラスの分布パラメータを推定するロバスト不均衡分類の強化手法を提案する。
エンコーダ・デコーダネットワークは、不均衡なデータの構造を保ち、絡み合いを防止するために訓練される。
訓練後, エンコーダから抽出した特徴ベクトルを用いて, 分布校正戦略を用いて合成サンプルを生成する。
このアプローチは、少数民族統計を近似するために多数民族の分布のみを用いる場合に生じる過一般化問題を効果的に緩和する。
そこで本手法では,周辺地域のデータポイントの分布を利用してパラメータを校正する。
実験結果から,提案手法は,多様な画像,テキスト,表形式のデータセットにまたがるいくつかのベースライン技術や最先端技術と比較して,優れた分類性能が得られることが示された。
関連論文リスト
- P3DC-Shot: Prior-Driven Discrete Data Calibration for Nearest-Neighbor
Few-Shot Classification [6.61282019235397]
P3DC-Shotは、事前駆動型データキャリブレーションによって強化された、隣り合う近距離数ショット分類法である。
それぞれのベースクラスを表すプロトタイプを先行として扱い、異なるベースプロトタイプとの類似性に基づいて各サポートデータを校正する。
論文 参考訳(メタデータ) (2023-01-02T16:26:16Z) - Proposal Distribution Calibration for Few-Shot Object Detection [65.19808035019031]
few-shot object detection (FSOD)では、重度のサンプル不均衡を軽減するために、2段階の訓練パラダイムが広く採用されている。
残念ながら、極端なデータ不足は、提案の分布バイアスを増大させ、RoIヘッドが新しいクラスに進化するのを妨げます。
本稿では,RoIヘッドのローカライゼーションと分類能力を高めるために,単純かつ効果的な提案分布キャリブレーション(PDC)手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T05:09:11Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Imbalanced Classification via a Tabular Translation GAN [4.864819846886142]
本稿では,多数のサンプルを対応する合成マイノリティ標本にマッピングするために,新たな正規化損失を用いたジェネレーティブ・アドバイサル・ネットワークに基づくモデルを提案する。
提案手法は, 再加重法やオーバーサンプリング法と比較して, 平均精度を向上することを示す。
論文 参考訳(メタデータ) (2022-04-19T06:02:53Z) - A Novel Adaptive Minority Oversampling Technique for Improved
Classification in Data Imbalanced Scenarios [23.257891827728827]
異なるクラスに属するトレーニングサンプルの割合の不均衡は、しばしば従来の分類器の性能低下を引き起こす。
不均衡なデータに対処する新しい3ステップ手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T09:58:02Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Conditional Wasserstein GAN-based Oversampling of Tabular Data for
Imbalanced Learning [10.051309746913512]
本稿では,条件付きWasserstein GANに基づくオーバーサンプリング手法を提案する。
実世界の7つのデータセット上で,標準的なオーバーサンプリング手法と不均衡なベースラインに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-08-20T20:33:56Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。