論文の概要: Weston-Watkins Hinge Loss and Ordered Partitions
- arxiv url: http://arxiv.org/abs/2006.07346v1
- Date: Fri, 12 Jun 2020 17:34:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:52:41.429631
- Title: Weston-Watkins Hinge Loss and Ordered Partitions
- Title(参考訳): weston-watkinsのヒンジ損失と順序付きパーティション
- Authors: Yutong Wang and Clayton D. Scott
- Abstract要約: 複数クラス分類のための新しい離散的損失関数、順序付き分割損失を導入し、この損失に対してWWヒンジ損失が校正されることを証明した。
また、この特性を満たす離散的な損失のうち、順序付けられた分割損失は極端に有益であると主張する。
- 参考スコア(独自算出の注目度): 11.759162160620678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiclass extensions of the support vector machine (SVM) have been
formulated in a variety of ways. A recent empirical comparison of nine such
formulations [Do\v{g}an et al. 2016] recommends the variant proposed by Weston
and Watkins (WW), despite the fact that the WW-hinge loss is not calibrated
with respect to the 0-1 loss. In this work we introduce a novel discrete loss
function for multiclass classification, the ordered partition loss, and prove
that the WW-hinge loss is calibrated with respect to this loss. We also argue
that the ordered partition loss is maximally informative among discrete losses
satisfying this property. Finally, we apply our theory to justify the empirical
observation made by Do\v{g}an et al. that the WW-SVM can work well even under
massive label noise, a challenging setting for multiclass SVMs.
- Abstract(参考訳): サポートベクトルマシン(SVM)のマルチクラス拡張は、様々な方法で定式化されている。
最近の9つの定式化の実証的な比較 (Do\v{g}an et al. 2016) では、WWの損失が0-1の損失に対して校正されないにもかかわらず、ウェストンとワトキンス(WW)によって提案された変種を推奨している。
本研究では,マルチクラス分類のための新しい離散損失関数である順序分割損失を導入し,ww-ヒンジ損失をこの損失に対して校正することを示す。
また、この性質を満たす離散的損失のうち、順序付き分割損失は最大に有益であると主張する。
最後に、我々は、WW-SVMは大規模なラベルノイズの下でも機能しうるというDo\v{g}anらによる経験的観察を正当化するために、我々の理論を適用した。
関連論文リスト
- The Implicit Bias of Gradient Descent on Separable Multiclass Data [38.05903703331163]
我々は、指数的尾特性のマルチクラス拡張を導入するために、置換同変と相対マージンベース(PERM)損失の枠組みを用いる。
提案手法は二分法の場合をよく反映しており,二分法と多分法のギャップを埋めるためのPERMフレームワークの威力を示すものである。
論文 参考訳(メタデータ) (2024-11-02T19:39:21Z) - Unified Binary and Multiclass Margin-Based Classification [27.28814893730265]
本稿では,多くの人気関数を含む多クラス損失関数を,相対的マージン形式で表現できることを示す。
次に、Fenchel-Young の損失のクラスを分析し、これらの損失の集合を分類校正(class-calibrated)として拡張する。
論文 参考訳(メタデータ) (2023-11-29T16:24:32Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Kernel Support Vector Machine Classifiers with the $\ell_0$-Norm Hinge
Loss [3.007949058551534]
Support Vector Machine (SVM)は、バイナリ分類問題において最も成功した機械学習技術の1つである。
本論文は, ヒンジ損失を持つベクトル($ell$-KSVM)に集中し, ヒンジ損失と$ell_$normの複合関数である。
合成データセットと実データセットの実験は、$ell_$-KSVMが標準のKSVMと同等の精度を達成可能であることを示すために照らされている。
論文 参考訳(メタデータ) (2023-06-24T14:52:44Z) - Decoupled Kullback-Leibler Divergence Loss [90.54331083430597]
我々は、クルバック・リブラー(KL)の除算損失がデカップリングカルバック・リブラー(DKL)の除算損失と等価であることを証明した。
我々はKL/DKLにクラスワイドなグローバル情報を導入し、個々のサンプルからバイアスを取ります。
提案手法は,新たな最先端の対人ロバスト性を公衆のリーダーボード上で実現する。
論文 参考訳(メタデータ) (2023-05-23T11:17:45Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Striking the Right Balance: Recall Loss for Semantic Segmentation [24.047359482606307]
クラス不均衡は、セマンティックセグメンテーションのようなコンピュータビジョンアプリケーションにおける基本的な問題である。
我々は,バニラクロスエントロピー損失を変形させることにより,ハードクラスの鉱業損失を提案する。
本研究では, 標準クロスエントロピー損失と逆周波数重み付き損失との間に, 新たなリコール損失が徐々に変化することを示す。
論文 参考訳(メタデータ) (2021-06-28T18:02:03Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z) - Supervised Learning: No Loss No Cry [51.07683542418145]
教師付き学習は最小化するために損失関数の仕様を必要とする。
本稿では,Kakade et al. (2011)のSLIsotronアルゴリズムを新しいレンズで再検討する。
損失を学習するための原則的な手順をいかに提供するかを示す。
論文 参考訳(メタデータ) (2020-02-10T05:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。