論文の概要: Geometric Manifold Rectification for Imbalanced Learning
- arxiv url: http://arxiv.org/abs/2602.13045v1
- Date: Fri, 13 Feb 2026 15:59:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.021622
- Title: Geometric Manifold Rectification for Imbalanced Learning
- Title(参考訳): 不均衡学習のための幾何学的マニフォールド整形
- Authors: Xubin Wang, Qing Li, Weijia Jia,
- Abstract要約: GMR(Geometric Manifold Rectification)は,局所的な幾何学的前提を生かして不均衡な構造化データを扱う新しいフレームワークである。
GMRは,(1)逆距離重み付きkNN投票と適応距離メートル法を用いて局所的信頼度を推定する幾何的信頼度推定,(2)少数検体に対して厳格な非対称的クリーニング,(2)少数検体を少数検体から保護し,少数検体を保護し,少数検体を保護した。
- 参考スコア(独自算出の注目度): 12.921833067052928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imbalanced classification presents a formidable challenge in machine learning, particularly when tabular datasets are plagued by noise and overlapping class boundaries. From a geometric perspective, the core difficulty lies in the topological intrusion of the majority class into the minority manifold, which obscures the true decision boundary. Traditional undersampling techniques, such as Edited Nearest Neighbours (ENN), typically employ symmetric cleaning rules and uniform voting, failing to capture the local manifold structure and often inadvertently removing informative minority samples. In this paper, we propose GMR (Geometric Manifold Rectification), a novel framework designed to robustly handle imbalanced structured data by exploiting local geometric priors. GMR makes two contributions: (1) Geometric confidence estimation that uses inverse-distance weighted kNN voting with an adaptive distance metric to capture local reliability; and (2) asymmetric cleaning that is strict on majority samples while conservatively protecting minority samples via a safe-guarding cap on minority removal. Extensive experiments on multiple benchmark datasets show that GMR is competitive with strong sampling baselines.
- Abstract(参考訳): 不均衡な分類は、特にノイズや重複するクラス境界に悩まされる表形式のデータセットにおいて、機械学習において深刻な課題となる。
幾何学的な見地からすると、中核の難しさは、マイノリティ多様体への多数類の位相的侵入にあり、これは真の決定境界を曖昧にしている。
ENN (Edited Nearest Neighbours) のような伝統的なアンダーサンプリング技術は、一般的に対称的なクリーニングルールと均一な投票を採用しており、局所多様体の構造を捉えず、しばしば不注意に情報的少数派のサンプルを除去する。
本稿では,GMR(Geometric Manifold Rectification)を提案する。
GMRは,(1)逆距離重み付きkNN投票と適応距離メートル法を用いて局所的信頼度を推定する幾何的信頼度推定,(2)少数検体に対して厳格な非対称的クリーニング,(2)少数検体を少数検体から保護し,少数検体を保護し,少数検体を保護した。
複数のベンチマークデータセットに対する大規模な実験は、GMRが強力なサンプリングベースラインと競合していることを示している。
関連論文リスト
- Learning Majority-to-Minority Transformations with MMD and Triplet Loss for Imbalanced Classification [0.5390869741300152]
教師付き分類におけるクラス不均衡は、多数派に対する予測をバイアスすることでモデル性能を低下させることが多い。
多数サンプルをマイノリティ分布にマッピングするパラメトリック変換を学習するオーバーサンプリングフレームワークを導入する。
提案手法は,グローバルアライメントのためのトランスフォーメーションと真のマイノリティサンプル間の平均最大誤差(MMD)を最小化する。
論文 参考訳(メタデータ) (2025-09-15T01:47:29Z) - Regression Augmentation With Data-Driven Segmentation [0.0]
不均衡回帰は、ターゲット分布が歪んだときに発生し、モデルが密度の高い領域に集中し、表現不足の(マイノリティ)サンプルと競合する原因となる。
本稿では,Mahalanobis-Gaussian Mixture Modeling (GMM) を用いて,マイノリティサンプルの自動同定を行う,完全なデータ駆動型GANベースの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-02T18:12:11Z) - Geometric Median Matching for Robust k-Subset Selection from Noisy Data [75.86423267723728]
最適分解点1/2のロバストな推定器であるGeometric Medianを利用する新しいk-subset選択法を提案する。
提案手法は, k-subset を反復的に選択し,部分集合の平均が(潜在的に)ノイズデータセットの GM に近似し,任意の汚損の下でもロバスト性を確保する。
論文 参考訳(メタデータ) (2025-04-01T09:22:05Z) - Anchor-based oversampling for imbalanced tabular data via contrastive and adversarial learning [2.7446241148152253]
不均衡データは、一方のクラス(マイノリティ)が他方(マイノリティ)よりも多く処理された周波数の分布を表す。
不均衡学習では、分類アルゴリズムは通常、多数派を正確に分類する傾向があり、結果として人工的に高い精度が得られる。
本研究では,不均衡学習課題に取り組むために,境界アンカーサンプルに基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-24T11:25:21Z) - Confronting Discrimination in Classification: Smote Based on
Marginalized Minorities in the Kernel Space for Imbalanced Data [0.0]
決定境界とサンプル近接関係に基づく新しい分類オーバーサンプリング手法を提案する。
提案手法を古典的金融詐欺データセットで検証する。
論文 参考訳(メタデータ) (2024-02-13T04:03:09Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Random Forest Weighted Local Fréchet Regression with Random Objects [18.128663071848923]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は、これらの重みを局所平均として、条件付きFr'echet平均を解くことである。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。