論文の概要: Intrinsic Dimensionality as a Model-Free Measure of Class Imbalance
- arxiv url: http://arxiv.org/abs/2511.10475v1
- Date: Fri, 14 Nov 2025 01:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.884275
- Title: Intrinsic Dimensionality as a Model-Free Measure of Class Imbalance
- Title(参考訳): クラス不均衡のモデル自由度としての内在次元性
- Authors: Çağrı Eser, Zeynep Sonat Baltacı, Emre Akbaş, Sinan Kalkan,
- Abstract要約: 分類タスクの不均衡は、クラス間の例の濃度によって一般的に定量化される。
これは、冗長な例の存在と、授業の学習困難における固有の相違を無視している。
本稿では,データ固有次元性(ID)を計算容易かつモデルフリーな不均衡尺度として用いることを提案する。
- 参考スコア(独自算出の注目度): 8.819673391477036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalance in classification tasks is commonly quantified by the cardinalities of examples across classes. This, however, disregards the presence of redundant examples and inherent differences in the learning difficulties of classes. Alternatively, one can use complex measures such as training loss and uncertainty, which, however, depend on training a machine learning model. Our paper proposes using data Intrinsic Dimensionality (ID) as an easy-to-compute, model-free measure of imbalance that can be seamlessly incorporated into various imbalance mitigation methods. Our results across five different datasets with a diverse range of imbalance ratios show that ID consistently outperforms cardinality-based re-weighting and re-sampling techniques used in the literature. Moreover, we show that combining ID with cardinality can further improve performance. Code: https://github.com/cagries/IDIM.
- Abstract(参考訳): 分類タスクの不均衡は、クラス間の例の濃度によって一般的に定量化される。
しかし、これは冗長な例の存在と、授業の学習困難における固有の相違を無視している。
あるいは、トレーニング損失や不確実性といった複雑な尺度を使用することもできるが、機械学習モデルのトレーニングに依存する。
本稿では,データ固有次元性(ID)を,様々な不均衡緩和手法にシームレスに組み込むことが可能な,計算が容易でモデルのない不均衡尺度として用いることを提案する。
多様な不均衡比を持つ5つのデータセットにまたがる結果から、IDは、文献で使われる基数に基づく再重み付けと再サンプリング技術より一貫して優れていることが示された。
さらに,IDと基数の組み合わせにより性能が向上することを示す。
コード:https://github.com/cagries/IDIM。
関連論文リスト
- A replica analysis of under-bagging [3.1274367448459253]
Under-bagging (UB) は、不均衡なデータに基づいて分類器を訓練するための一般的なアンサンブル学習手法である。
アンダーサンプリングによる試料径の減少による分散の増大を抑えるためにバッジを用いることは自然なアプローチである。
近年、一般化線形モデルでは、クラス不均衡構造を考慮しない単純バッグングとリッジ正則化が同じ結果をもたらすことが指摘されている。
論文 参考訳(メタデータ) (2024-04-15T13:31:31Z) - Class Uncertainty: A Measure to Mitigate Class Imbalance [0.0]
授業の基数のみを考慮すると、クラス不均衡の原因となるすべての問題をカバーできるわけではない。
トレーニング事例の予測的不確実性の平均値として「クラス不確実性」を提案する。
また,SVCI-20は,クラスが同じ数のトレーニングサンプルを持つが,それらの硬さの点で異なる,新しいデータセットとしてキュレートする。
論文 参考訳(メタデータ) (2023-11-23T16:36:03Z) - Instance-specific and Model-adaptive Supervision for Semi-supervised
Semantic Segmentation [49.82432158155329]
iMAS と呼ばれる半教師付きセマンティックセグメンテーションのためのインスタンス固有およびモデル適応型監視法を提案する。
iMASは、評価された硬さに基づいて、対応する一貫性損失を測定することで、ラベルのないインスタンスから徐々に学習する。
論文 参考訳(メタデータ) (2022-11-21T10:37:28Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Classification Performance Metric for Imbalance Data Based on Recall and
Selectivity Normalized in Class Labels [0.0]
クラスラベルに正規化されたリコールと選択率の調和平均に基づく新しいパフォーマンス指標を提案する。
本稿では,提案手法が不均衡なデータセットに対して適切な特性を持つことを示す。
論文 参考訳(メタデータ) (2020-06-23T20:38:48Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。