論文の概要: Unified Binary and Multiclass Margin-Based Classification
- arxiv url: http://arxiv.org/abs/2311.17778v2
- Date: Fri, 17 May 2024 08:46:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 20:23:25.393937
- Title: Unified Binary and Multiclass Margin-Based Classification
- Title(参考訳): 統一バイナリとマルチクラスマージンベース分類
- Authors: Yutong Wang, Clayton Scott,
- Abstract要約: 本稿では,多くの人気関数を含む多クラス損失関数を,相対的マージン形式で表現できることを示す。
次に、Fenchel-Young の損失のクラスを分析し、これらの損失の集合を分類校正(class-calibrated)として拡張する。
- 参考スコア(独自算出の注目度): 27.28814893730265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The notion of margin loss has been central to the development and analysis of algorithms for binary classification. To date, however, there remains no consensus as to the analogue of the margin loss for multiclass classification. In this work, we show that a broad range of multiclass loss functions, including many popular ones, can be expressed in the relative margin form, a generalization of the margin form of binary losses. The relative margin form is broadly useful for understanding and analyzing multiclass losses as shown by our prior work (Wang and Scott, 2020, 2021). To further demonstrate the utility of this way of expressing multiclass losses, we use it to extend the seminal result of Bartlett et al. (2006) on classification-calibration of binary margin losses to multiclass. We then analyze the class of Fenchel-Young losses, and expand the set of these losses that are known to be classification-calibrated.
- Abstract(参考訳): マージン損失の概念は、二項分類のためのアルゴリズムの開発と分析の中心となっている。
しかし、今のところ、マルチクラス分類におけるマージン損失の類似性については合意が得られていない。
本研究では,多くの人気関数を含む幅広い多クラス損失関数が,二項損失のマージン形式を一般化した相対的マージン形式で表現可能であることを示す。
これまでの研究(Wang and Scott, 2020, 2021)で示されているように、相対的マージン形式は多クラス損失の理解と分析に広く有用である。
マルチクラス損失を表すこの方法の有用性をさらに実証するために、Bartlett et al (2006) の初等的な結果をマルチクラスに分類・校正する。
次に、Fenchel-Young の損失のクラスを分析し、これらの損失の集合を分類校正(class-calibrated)として拡張する。
関連論文リスト
- The Implicit Bias of Gradient Descent on Separable Multiclass Data [38.05903703331163]
我々は、指数的尾特性のマルチクラス拡張を導入するために、置換同変と相対マージンベース(PERM)損失の枠組みを用いる。
提案手法は二分法の場合をよく反映しており,二分法と多分法のギャップを埋めるためのPERMフレームワークの威力を示すものである。
論文 参考訳(メタデータ) (2024-11-02T19:39:21Z) - A Universal Growth Rate for Learning with Smooth Surrogate Losses [30.389055604165222]
2進分類におけるスムーズなマージンベースサロゲート損失に対して,0付近の平方根成長速度を証明した。
我々は、この分析を、一連の新しい結果でマルチクラス分類に拡張する。
論文 参考訳(メタデータ) (2024-05-09T17:59:55Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Multiclass learning with margin: exponential rates with no bias-variance
trade-off [16.438523317718694]
最適境界条件下でのマルチクラス分類における誤差境界の挙動について検討する。
異なる収束速度は異なるマージンの仮定に対応して得られる。
論文 参考訳(メタデータ) (2022-02-03T18:57:27Z) - DropLoss for Long-Tail Instance Segmentation [56.162929199998075]
珍しいカテゴリーと頻繁なカテゴリーのアンバランスを補う新しい適応損失であるDropLossを開発しています。
LVISデータセットでは,レア,一般的,頻繁なカテゴリにまたがる最先端のmAPを示す。
論文 参考訳(メタデータ) (2021-04-13T17:59:22Z) - Margin-Based Transfer Bounds for Meta Learning with Deep Feature
Embedding [67.09827634481712]
我々は、マージン理論と統計学習理論を活用し、メタラーニングに基づくマルチクラス分類(MLMC)のための3つのマージンベース転送境界を確立する。
これらの境界は、与えられた将来のタスクに対する分類アルゴリズムの予測誤差を、前のタスクの有限個の平均的な経験誤差で推定できることを示している。
3つのベンチマークの実験は、これらのマージンベースのモデルが依然として競争力のある性能を達成していることを示している。
論文 参考訳(メタデータ) (2020-12-02T23:50:51Z) - Distribution-Balanced Loss for Multi-Label Classification in Long-Tailed
Datasets [98.74153364118898]
本稿では,長距離クラス分布を示す多ラベル認識問題に対して,分散ベース損失と呼ばれる新たな損失関数を提案する。
Distribution-Balanced Lossは、標準的なバイナリのクロスエントロピー損失に対する2つの重要な修正を通じて、これらの問題に取り組む。
パスカルVOCとCOCOの両方の実験により、この新しい損失関数で訓練されたモデルは、大幅な性能向上を達成できた。
論文 参考訳(メタデータ) (2020-07-19T11:50:10Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Negative Margin Matters: Understanding Margin in Few-shot Classification [72.85978953262004]
本稿では,メトリクス学習に基づく数ショット学習手法に負のマージン損失を導入する。
負のマージンの損失は、通常のソフトマックスの損失と、3つの標準的な数ショット分類ベンチマークにおける最先端の精度を著しく上回る。
論文 参考訳(メタデータ) (2020-03-26T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。