論文の概要: Towards Understanding Generalization of Macro-AUC in Multi-label
Learning
- arxiv url: http://arxiv.org/abs/2305.05248v1
- Date: Tue, 9 May 2023 08:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:25:40.552885
- Title: Towards Understanding Generalization of Macro-AUC in Multi-label
Learning
- Title(参考訳): マルチラベル学習におけるマクロAUCの一般化の理解に向けて
- Authors: Guoqiang Wu, Chongxuan Li, Yilong Yin
- Abstract要約: マクロAUCに基づく各種学習アルゴリズムの一般化特性を特徴付ける。
一般化境界に影響を及ぼすデータセットの臨界因子を同定する。
我々は、独立性を持つかもしれない新しい(そしてより一般的な)マクダイアルミド型濃度不等式を提案する。
- 参考スコア(独自算出の注目度): 48.015768048227166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Macro-AUC is the arithmetic mean of the class-wise AUCs in multi-label
learning and is commonly used in practice. However, its theoretical
understanding is far lacking. Toward solving it, we characterize the
generalization properties of various learning algorithms based on the
corresponding surrogate losses w.r.t. Macro-AUC. We theoretically identify a
critical factor of the dataset affecting the generalization bounds: \emph{the
label-wise class imbalance}. Our results on the imbalance-aware error bounds
show that the widely-used univariate loss-based algorithm is more sensitive to
the label-wise class imbalance than the proposed pairwise and reweighted
loss-based ones, which probably implies its worse performance. Moreover,
empirical results on various datasets corroborate our theory findings. To
establish it, technically, we propose a new (and more general) McDiarmid-type
concentration inequality, which may be of independent interest.
- Abstract(参考訳): マクロAUCは、マルチラベル学習におけるクラスワイドAUCの算術平均であり、実際は一般的に使われている。
しかし、その理論的理解は極めて不足している。
そこで本研究では,マクロ・AUCのサロゲート損失に基づいて,様々な学習アルゴリズムの一般化特性を特徴付ける。
一般化境界に影響を与えるデータセットの臨界因子を理論的に同定する: \emph{the label-wise class imbalance}。
不均衡認識誤り境界に関する本研究の結果から,広く用いられている不平等損失に基づくアルゴリズムは,提案するペアワイズおよび再重み付け損失ベースアルゴリズムよりもラベルワイズクラス不均衡に敏感であることが判明した。
さらに, 様々なデータセットに対する実験結果は, 理論上の知見を裏付けるものである。
これを技術的に確立するために、我々は、独立した関心を持つ可能性のある、新しい(より一般的な)マクディアーミド型濃度不等式を提案する。
関連論文リスト
- Likelihood-based Differentiable Structure Learning [38.25218464260965]
有向非巡回グラフ(DAG)の微分可能な構造学習への既存のアプローチは、強い識別可能性仮定に依存している。
一般確率下での微分可能非周期制約プログラムの挙動を解析することにより,これらの問題を説明・改善する。
論文 参考訳(メタデータ) (2024-10-08T16:08:24Z) - On Characterizing and Mitigating Imbalances in Multi-Instance Partial Label Learning [57.18649648182171]
我々は、MI-PLLの文脈において、これまで研究されていない問題に対処するためのコントリビューションを行っている。
最小限の仮定をしながら、クラス固有のMI-PLLのリスク境界を導出する。
我々の理論は、$sigma$が学習の不均衡に大きな影響を及ぼすというユニークな現象を明らかにしている。
論文 参考訳(メタデータ) (2024-07-13T20:56:34Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Rethinking and Reweighting the Univariate Losses for Multi-Label
Ranking: Consistency and Generalization [44.73295800450414]
(部分)ランキング損失は、マルチラベル分類の一般的な評価尺度です。
既存の理論と実践の間にはギャップがある -- ペアワイズな損失は有望なパフォーマンスをもたらすが一貫性を欠く可能性がある。
論文 参考訳(メタデータ) (2021-05-10T09:23:27Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Robustifying Binary Classification to Adversarial Perturbation [45.347651499585055]
本稿では,対向摂動を伴う二分分類の問題について考察する。
データを操作する際の敵の力を考慮に入れたマックスマージン分類器に一般化を導入する。
損失関数に関するいくつかの軽微な仮定の下では、勾配降下がその方向のRM分類器に収束することを理論的に示す。
論文 参考訳(メタデータ) (2020-10-29T07:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。