論文の概要: Reducing Class-Wise Performance Disparity via Margin Regularization
- arxiv url: http://arxiv.org/abs/2602.00205v1
- Date: Fri, 30 Jan 2026 12:56:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.052661
- Title: Reducing Class-Wise Performance Disparity via Margin Regularization
- Title(参考訳): マージン正規化によるクラスワイズ性能格差の低減
- Authors: Beier Zhu, Kesen Zhao, Jiequan Cui, Qianru Sun, Yuan Zhou, Xun Yang, Hanwang Zhang,
- Abstract要約: ディープニューラルネットワークは、クラスバランスのデータでトレーニングされた場合でも、クラスレベルでの精度において大きな違いを示すことが多い。
本稿では,性能格差低減のためのMargin Regularization for Performance Disparity Reduction (MR$2$)を提案する。
分析の結果,クラスごとの機能変動がエラーにどのように寄与するかが明らかとなり,ハードクラスに対するより大きなマージンの利用が動機となった。
- 参考スコア(独自算出の注目度): 82.81746960548382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks often exhibit substantial disparities in class-wise accuracy, even when trained on class-balanced data, posing concerns for reliable deployment. While prior efforts have explored empirical remedies, a theoretical understanding of such performance disparities in classification remains limited. In this work, we present Margin Regularization for Performance Disparity Reduction (MR$^2$), a theoretically principled regularization for classification by dynamically adjusting margins in both the logit and representation spaces. Our analysis establishes a margin-based, class-sensitive generalization bound that reveals how per-class feature variability contributes to error, motivating the use of larger margins for hard classes. Guided by this insight, MR$^2$ optimizes per-class logit margins proportional to feature spread and penalizes excessive representation margins to enhance intra-class compactness. Experiments on seven datasets, including ImageNet, and diverse pre-trained backbones (MAE, MoCov2, CLIP) demonstrate that MR$^2$ not only improves overall accuracy but also significantly boosts hard class performance without trading off easy classes, thus reducing performance disparity. Code is available at: https://github.com/BeierZhu/MR2
- Abstract(参考訳): ディープニューラルネットワークは、クラスのバランスの取れたデータでトレーニングされた場合でも、クラスの精度がかなり異なることがあり、信頼性の高いデプロイメントに懸念を呈する。
以前の研究は経験的治療を探求してきたが、そのような分類における性能格差に関する理論的理解は依然として限られている。
本稿では、ロジットと表現空間の利幅を動的に調整することで、理論上は分類のための正規化であるMR$^2$(Margin Regularization for Performance Disparity Reduction)を提案する。
我々の分析は、クラスごとの特徴変数がエラーにどのように寄与するかを明らかにする、マージンベースのクラス依存の一般化境界を確立し、ハードクラスに対するより大きなマージンの使用を動機付けている。
この知見に導かれるMR$^2$は、特徴展開に比例するクラスごとのロジットマージンを最適化し、クラス内コンパクト性を高めるために過剰な表現マージンを罰する。
ImageNetを含む7つのデータセットの実験と、様々な事前トレーニングされたバックボーン(MAE、MoCov2、CLIP)は、MR$^2$が全体的な精度を向上するだけでなく、簡単なクラスをオフにすることなく、ハードクラスのパフォーマンスを大幅に向上することを示した。
コードは、https://github.com/BeierZhu/MR2で入手できる。
関連論文リスト
- Sculpting Margin Penalty: Intra-Task Adapter Merging and Classifier Calibration for Few-Shot Class-Incremental Learning [20.574528816984955]
フォワード互換学習はFSCIL(Few-Shot Class-Incremental Learning)にとって有望なソリューションである
SMP(Sculpting Margin Penalty)は,パラメータ効率のよい微調整パラダイムにおいて,異なる段階における利幅のペナルティを戦略的に統合する新しいFSCIL法である。
そこで本研究では,SMPがFSCILの最先端性能を実現しつつ,ベースクラスと新しいクラスとのバランスを良く保っていることを示す。
論文 参考訳(メタデータ) (2025-08-07T07:26:24Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Regularized Linear Regression for Binary Classification [20.710343135282116]
正規化線形回帰は、トレーニングセットがノイズラベルを持つ二項分類問題に対して有望なアプローチである。
十分な正則化強度に対して、最適重みは反対符号の2つの値の周りに集中していることを示す。
多くの場合、各重みの1ビットに対する「圧縮」が性能の損失を極めて少なくする。
論文 参考訳(メタデータ) (2023-11-03T23:18:21Z) - Towards Calibrated Hyper-Sphere Representation via Distribution Overlap
Coefficient for Long-tailed Learning [8.208237033120492]
ロングテール学習は、現実世界のシナリオにおいて、厳しいクラス不均衡の下で、ヘッドクラスがトレーニング手順を支配しているという課題に取り組むことを目的としている。
これを動機として、コサインに基づく分類器をフォン・ミセス・フィッシャー混合モデル(vMF)に一般化する。
分布重なり係数の計算により超球面上の表現品質を測定する。
論文 参考訳(メタデータ) (2022-08-22T03:53:29Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Distribution of Classification Margins: Are All Data Equal? [61.16681488656473]
我々は理論的に動機付け、トレーニングセット上のマージン分布の曲線の下の領域が実際は一般化のよい尺度であることを実証的に示す。
結果として生じる"高いキャパシティ"機能のサブセットは、異なるトレーニング実行間で一貫性がない。
論文 参考訳(メタデータ) (2021-07-21T16:41:57Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z) - Negative Margin Matters: Understanding Margin in Few-shot Classification [72.85978953262004]
本稿では,メトリクス学習に基づく数ショット学習手法に負のマージン損失を導入する。
負のマージンの損失は、通常のソフトマックスの損失と、3つの標準的な数ショット分類ベンチマークにおける最先端の精度を著しく上回る。
論文 参考訳(メタデータ) (2020-03-26T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。