論文の概要: Learning Majority-to-Minority Transformations with MMD and Triplet Loss for Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2509.11511v1
- Date: Mon, 15 Sep 2025 01:47:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.118178
- Title: Learning Majority-to-Minority Transformations with MMD and Triplet Loss for Imbalanced Classification
- Title(参考訳): 不均衡分類のためのMDDとトリプルト損失を用いた学習行列-マイノリティ変換
- Authors: Suman Cha, Hyunjoong Kim,
- Abstract要約: 教師付き分類におけるクラス不均衡は、多数派に対する予測をバイアスすることでモデル性能を低下させることが多い。
多数サンプルをマイノリティ分布にマッピングするパラメトリック変換を学習するオーバーサンプリングフレームワークを導入する。
提案手法は,グローバルアライメントのためのトランスフォーメーションと真のマイノリティサンプル間の平均最大誤差(MMD)を最小化する。
- 参考スコア(独自算出の注目度): 0.5390869741300152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class imbalance in supervised classification often degrades model performance by biasing predictions toward the majority class, particularly in critical applications such as medical diagnosis and fraud detection. Traditional oversampling techniques, including SMOTE and its variants, generate synthetic minority samples via local interpolation but fail to capture global data distributions in high-dimensional spaces. Deep generative models based on GANs offer richer distribution modeling yet suffer from training instability and mode collapse under severe imbalance. To overcome these limitations, we introduce an oversampling framework that learns a parametric transformation to map majority samples into the minority distribution. Our approach minimizes the maximum mean discrepancy (MMD) between transformed and true minority samples for global alignment, and incorporates a triplet loss regularizer to enforce boundary awareness by guiding synthesized samples toward challenging borderline regions. We evaluate our method on 29 synthetic and real-world datasets, demonstrating consistent improvements over classical and generative baselines in AUROC, G-mean, F1-score, and MCC. These results confirm the robustness, computational efficiency, and practical utility of the proposed framework for imbalanced classification tasks.
- Abstract(参考訳): 教師付き分類におけるクラス不均衡は、特に医学的診断や不正検出といった重要な応用において、多数派に対する予測をバイアスすることでモデル性能を低下させることが多い。
SMOTEやその変種を含む従来のオーバーサンプリング技術は、局所補間によって合成マイノリティサンプルを生成するが、高次元空間におけるグローバルなデータ分布を捉えることができない。
GANに基づく深層生成モデルは、トレーニング不安定性やモード崩壊に苦しむことなく、よりリッチな分布モデリングを提供する。
これらの制約を克服するために,多数サンプルをマイノリティ分布にマッピングするパラメトリック変換を学習するオーバーサンプリングフレームワークを導入する。
提案手法は,グローバルアライメントのための変換されたマイノリティサンプルと真のマイノリティサンプルの最大平均誤差(MMD)を最小化し,三重項損失正規化器を組み込んで,合成サンプルを挑戦的な境界線領域に向けて誘導することによって境界認識を強化する。
AUROC, G-mean, F1-score, MCCの古典的, 生成的ベースラインに対して一貫した改善が見られた。
これらの結果から,不均衡な分類タスクのためのフレームワークの堅牢性,計算効率,実用性が確認された。
関連論文リスト
- Generate Aligned Anomaly: Region-Guided Few-Shot Anomaly Image-Mask Pair Synthesis for Industrial Inspection [53.137651284042434]
異常検査は製造業において重要な役割を担っているが、異常サンプルの不足は既存の方法の有効性を制限している。
本稿では,GAA (Generate grained Anomaly) を提案する。
GAAは少数のサンプルのみを用いて現実的で多様で意味的に整合した異常を発生させる。
論文 参考訳(メタデータ) (2025-07-13T12:56:59Z) - SMOGAN: Synthetic Minority Oversampling with GAN Refinement for Imbalanced Regression [0.0]
不均衡回帰とは、ターゲット変数が歪んだ予測タスクを指す。
この歪みは、高密度領域に集中する機械学習モデル、特にニューラルネットワークを妨げる。
不均衡回帰のための2段階オーバーサンプリングフレームワークであるSMOGANを提案する。
論文 参考訳(メタデータ) (2025-04-29T20:15:25Z) - Addressing Class Imbalance with Probabilistic Graphical Models and Variational Inference [10.457756074328664]
本研究では,深い確率的グラフィカルモデル(DPGM)に基づく不均衡データ分類手法を提案する。
本稿では,少数クラスの表現能力を適応的に調整できる変分推論最適化確率モデルを提案する。
逆学習機構を組み合わさって、潜在空間におけるマイノリティクラスサンプルを生成し、モデルがカテゴリ境界をより正確に特徴づけられるようにします。
論文 参考訳(メタデータ) (2025-04-08T07:38:30Z) - Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Imbalanced Classification via a Tabular Translation GAN [4.864819846886142]
本稿では,多数のサンプルを対応する合成マイノリティ標本にマッピングするために,新たな正規化損失を用いたジェネレーティブ・アドバイサル・ネットワークに基づくモデルを提案する。
提案手法は, 再加重法やオーバーサンプリング法と比較して, 平均精度を向上することを示す。
論文 参考訳(メタデータ) (2022-04-19T06:02:53Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - A Novel Adaptive Minority Oversampling Technique for Improved
Classification in Data Imbalanced Scenarios [23.257891827728827]
異なるクラスに属するトレーニングサンプルの割合の不均衡は、しばしば従来の分類器の性能低下を引き起こす。
不均衡なデータに対処する新しい3ステップ手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T09:58:02Z) - Conditional Wasserstein GAN-based Oversampling of Tabular Data for
Imbalanced Learning [10.051309746913512]
本稿では,条件付きWasserstein GANに基づくオーバーサンプリング手法を提案する。
実世界の7つのデータセット上で,標準的なオーバーサンプリング手法と不均衡なベースラインに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-08-20T20:33:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。