論文の概要: Negative Margin Matters: Understanding Margin in Few-shot Classification
- arxiv url: http://arxiv.org/abs/2003.12060v1
- Date: Thu, 26 Mar 2020 17:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 20:55:39.753250
- Title: Negative Margin Matters: Understanding Margin in Few-shot Classification
- Title(参考訳): ネガティブなマージン: 少しの分類でマージンを理解する
- Authors: Bin Liu, Yue Cao, Yutong Lin, Qi Li, Zheng Zhang, Mingsheng Long, Han
Hu
- Abstract要約: 本稿では,メトリクス学習に基づく数ショット学習手法に負のマージン損失を導入する。
負のマージンの損失は、通常のソフトマックスの損失と、3つの標準的な数ショット分類ベンチマークにおける最先端の精度を著しく上回る。
- 参考スコア(独自算出の注目度): 72.85978953262004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a negative margin loss to metric learning based
few-shot learning methods. The negative margin loss significantly outperforms
regular softmax loss, and achieves state-of-the-art accuracy on three standard
few-shot classification benchmarks with few bells and whistles. These results
are contrary to the common practice in the metric learning field, that the
margin is zero or positive. To understand why the negative margin loss performs
well for the few-shot classification, we analyze the discriminability of
learned features w.r.t different margins for training and novel classes, both
empirically and theoretically. We find that although negative margin reduces
the feature discriminability for training classes, it may also avoid falsely
mapping samples of the same novel class to multiple peaks or clusters, and thus
benefit the discrimination of novel classes. Code is available at
https://github.com/bl0/negative-margin.few-shot.
- Abstract(参考訳): 本稿では,メトリクス学習に基づく数ショット学習手法に負のマージン損失を導入する。
負のマージン損失は、通常のソフトマックス損失よりも著しく優れており、ベルやホイッスルがほとんどない3つの標準的な数ショット分類ベンチマークで最先端の精度を達成する。
これらの結果は、マージンがゼロか正かという、計量学習の分野での一般的な実践とは反対である。
数発の分類において負のマージン損失がうまく機能する理由を理解するため,実験的にも理論的にも,学習対象と異なるマージンの識別性を分析する。
負のマージンはトレーニングクラスの特徴判別性を低下させるが、同一の新規クラスのサンプルを複数のピークやクラスタに誤マッピングすることも回避できるため、新規クラスの識別にメリットがある。
コードはhttps://github.com/bl0/ negative-margin.few-shotで入手できる。
関連論文リスト
- Large Margin Discriminative Loss for Classification [3.3975558777609915]
本稿では,Deep Learning の文脈において,大きなマージンを持つ新たな識別的損失関数を提案する。
この損失は、クラス内コンパクト性とクラス間分離性によって表されるニューラルネットの識別力を高める。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Unified Binary and Multiclass Margin-Based Classification [27.28814893730265]
本稿では,多くの人気関数を含む多クラス損失関数を,相対的マージン形式で表現できることを示す。
次に、Fenchel-Young の損失のクラスを分析し、これらの損失の集合を分類校正(class-calibrated)として拡張する。
論文 参考訳(メタデータ) (2023-11-29T16:24:32Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Learning Imbalanced Datasets with Maximum Margin Loss [21.305656747991026]
クラス不均衡データ学習問題を考慮した学習アルゴリズムとして,最大マージン(MM)を提案する。
我々は、シフトする決定境界を通して有界なマージン一般化を最小化することで、新しい最大マージン損失関数を設計する。
論文 参考訳(メタデータ) (2022-06-11T00:21:41Z) - ELM: Embedding and Logit Margins for Long-Tail Learning [70.19006872113862]
長期学習はスキューラベル分布下での学習の問題である。
本稿では,ロジット空間にマージンを強制するための統一アプローチであるEmbedding and Logit Margins(ELM)を提案する。
The ELM method are shown to be well empirically, and result to tight more tail class embeddeds。
論文 参考訳(メタデータ) (2022-04-27T21:53:50Z) - MSE Loss with Outlying Label for Imbalanced Classification [10.305130700118399]
クラス不均衡分類のための外付けラベルを用いた平均二乗誤差(MSE)損失を提案する。
MSE損失は、すべてのクラスのバック伝搬数を等しくし、メトリック学習としてのクラス間の関係を考慮して特徴空間を学習することができる。
高微分クラスと低微分クラスを分離する機能空間を作成することができる。
論文 参考訳(メタデータ) (2021-07-06T05:17:00Z) - Margin-Based Transfer Bounds for Meta Learning with Deep Feature
Embedding [67.09827634481712]
我々は、マージン理論と統計学習理論を活用し、メタラーニングに基づくマルチクラス分類(MLMC)のための3つのマージンベース転送境界を確立する。
これらの境界は、与えられた将来のタスクに対する分類アルゴリズムの予測誤差を、前のタスクの有限個の平均的な経験誤差で推定できることを示している。
3つのベンチマークの実験は、これらのマージンベースのモデルが依然として競争力のある性能を達成していることを示している。
論文 参考訳(メタデータ) (2020-12-02T23:50:51Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。