論文の概要: Top-$k$ Classification and Cardinality-Aware Prediction
- arxiv url: http://arxiv.org/abs/2403.19625v1
- Date: Thu, 28 Mar 2024 17:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 15:14:42.384305
- Title: Top-$k$ Classification and Cardinality-Aware Prediction
- Title(参考訳): トップ$kの分類と心磁図の予測
- Authors: Anqi Mao, Mehryar Mohri, Yutao Zhong,
- Abstract要約: 和和と制約付き損失は、上位の$k$損失に対する$H$一貫性境界によって支持されることを示す。
本稿では、インスタンス依存型コスト依存学習を通じて、基数認識損失関数を導入する。
これらの損失を最小限に抑えることで、トップ$kの分類のための新しい濃度認識アルゴリズムが生まれる。
- 参考スコア(独自算出の注目度): 30.389055604165222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a detailed study of top-$k$ classification, the task of predicting the $k$ most probable classes for an input, extending beyond single-class prediction. We demonstrate that several prevalent surrogate loss functions in multi-class classification, such as comp-sum and constrained losses, are supported by $H$-consistency bounds with respect to the top-$k$ loss. These bounds guarantee consistency in relation to the hypothesis set $H$, providing stronger guarantees than Bayes-consistency due to their non-asymptotic and hypothesis-set specific nature. To address the trade-off between accuracy and cardinality $k$, we further introduce cardinality-aware loss functions through instance-dependent cost-sensitive learning. For these functions, we derive cost-sensitive comp-sum and constrained surrogate losses, establishing their $H$-consistency bounds and Bayes-consistency. Minimizing these losses leads to new cardinality-aware algorithms for top-$k$ classification. We report the results of extensive experiments on CIFAR-100, ImageNet, CIFAR-10, and SVHN datasets demonstrating the effectiveness and benefit of these algorithms.
- Abstract(参考訳): 単クラス予測を超越して、入力に対して最も確率の高いクラスを$k$で予測するタスクである、トップ$k$分類に関する詳細な研究を示す。
我々は, comp-sumや制約付き損失などの多クラス分類において, 有意な代理損失関数が, 上位の$k$損失に関して$H$一貫性境界によって支持されることを実証した。
これらの境界は、仮説セットの$H$に関して一貫性を保証し、非漸近的で仮説セットの特定の性質のため、ベイズ整合性よりも強い保証を提供する。
精度と基数$k$のトレードオフに対処するために、インスタンス依存のコスト依存学習を通じて、基数認識損失関数を導入する。
これらの機能に対して、コスト感受性のcomp-sumと制約付きサロゲート損失を導出し、それらの$H$一貫性境界とベイズ一貫性を確立する。
これらの損失を最小限に抑えることで、トップ$kの分類のための新しい濃度認識アルゴリズムが生まれる。
CIFAR-100, ImageNet, CIFAR-10, SVHNデータセットの広範な実験結果について報告する。
関連論文リスト
- Realizable $H$-Consistent and Bayes-Consistent Loss Functions for Learning to Defer [30.389055604165222]
非増加関数の$Psi$によってパラメータ化され、穏やかな条件下で実現可能な$H$一貫性を確立する。
分類誤差に基づくコスト関数の場合、これらの損失は仮説集合が対称かつ完全であるときに$H$一貫性境界を持つことを示す。
論文 参考訳(メタデータ) (2024-07-18T17:35:03Z) - Cardinality-Aware Set Prediction and Top-$k$ Classification [33.00927499966789]
低濃度を維持しながら、正確なk$集合予測器を学習することを目的とした、新しいアプローチを提案する。
この設定に合わせた新たな目標損失関数を導入し、予測された集合の分類誤差と濃度の両方を考慮に入れた。
これらの損失関数の最小化は、我々が詳細に記述した新しい濃度認識アルゴリズムに繋がる。
論文 参考訳(メタデータ) (2024-07-09T17:57:07Z) - Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Predictor-Rejector Multi-Class Abstention: Theoretical Analysis and Algorithms [30.389055604165222]
マルチクラス分類設定において,留意を伴う学習の鍵となる枠組みについて検討する。
この設定では、学習者は事前に定義されたコストで予測をしないことを選択できる。
我々は、強い非漸近的および仮説的整合性を保証するために、いくつかの新しい代理損失の族を導入する。
論文 参考訳(メタデータ) (2023-10-23T10:16:27Z) - Theoretically Grounded Loss Functions and Algorithms for Score-Based Multi-Class Abstention [30.389055604165222]
禁断損失関数に対する代用損失の新たなファミリーを導入する。
我々はこれらのサロゲート損失に対して、非漸近的で仮説固有の一貫性を保証する。
以上の結果から,最新のスコアベースサロゲート損失の相対的性能はデータセットによって異なる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-23T10:13:35Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Multi-group Agnostic PAC Learnability [7.9649015115693444]
マルチグループ非依存型PAC学習可能性」について検討する。
このような予測器が存在することが保証される損失関数のキャラクタリゼーションを提供する。
本研究は,複数群フェアネス文献から得られた前向きおよび負の結果を統一し,拡張するものである。
論文 参考訳(メタデータ) (2021-05-20T18:43:36Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。