論文の概要: Boosting Few-Shot Learning With Adaptive Margin Loss
- arxiv url: http://arxiv.org/abs/2005.13826v1
- Date: Thu, 28 May 2020 07:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:25:31.945061
- Title: Boosting Few-Shot Learning With Adaptive Margin Loss
- Title(参考訳): Adaptive Margin LossによるFew-Shot学習の促進
- Authors: Aoxue Li and Weiran Huang and Xu Lan and Jiashi Feng and Zhenguo Li
and Liwei Wang
- Abstract要約: 本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
- 参考スコア(独自算出の注目度): 109.03665126222619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning (FSL) has attracted increasing attention in recent years
but remains challenging, due to the intrinsic difficulty in learning to
generalize from a few examples. This paper proposes an adaptive margin
principle to improve the generalization ability of metric-based meta-learning
approaches for few-shot learning problems. Specifically, we first develop a
class-relevant additive margin loss, where semantic similarity between each
pair of classes is considered to separate samples in the feature embedding
space from similar classes. Further, we incorporate the semantic context among
all classes in a sampled training task and develop a task-relevant additive
margin loss to better distinguish samples from different classes. Our adaptive
margin method can be easily extended to a more realistic generalized FSL
setting. Extensive experiments demonstrate that the proposed method can boost
the performance of current metric-based meta-learning approaches, under both
the standard FSL and generalized FSL settings.
- Abstract(参考訳): 近年、FSL(Few-shot Learning)が注目されているが、いくつかの例から学習を一般化することが本質的に困難であることから、いまだに困難である。
本稿では,数発学習問題に対するメトリックベースメタラーニング手法の一般化能力を向上させるための適応マージン原理を提案する。
具体的には、まず、各クラス間の意味的類似性が類似したクラスから特徴埋め込み空間内のサンプルを分離すると見なされるクラス関連加法マージン損失を開発する。
さらに,すべてのクラスに意味的コンテキストを組み込んで,異なるクラスからのサンプルをよりよく識別するために,タスク関連加法的マージン損失を開発する。
適応マージン法はより現実的な一般化fsl設定に容易に拡張できる。
大規模な実験により,提案手法は標準的なFSLと一般化FSL設定の両方の下で,現行のメトリックベースメタラーニング手法の性能を向上させることができることが示された。
関連論文リスト
- BECLR: Batch Enhanced Contrastive Few-Shot Learning [1.450405446885067]
教師なしの少数ショット学習は、トレーニング時にアノテーションへの依存を捨てることで、このギャップを埋めようとしている。
本稿では,高度に分離可能な潜在表現空間を促進するために,新しい動的クラスタ mEmory (DyCE) モジュールを提案する。
そして、数ショットの推論段階でサンプルバイアスの問題に取り組みます。
論文 参考訳(メタデータ) (2024-02-04T10:52:43Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Semantics-driven Attentive Few-shot Learning over Clean and Noisy
Samples [0.0]
メタラーナーモデルを学習し、新しいクラスに関する事前の意味知識を活用して分類器合成プロセスを導くことを目指している。
特に,表現次元とトレーニングインスタンスの重要性を推定する意味条件付き特徴注意機構とサンプル注意機構を提案する。
論文 参考訳(メタデータ) (2022-01-09T16:16:23Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - The Role of Global Labels in Few-Shot Classification and How to Infer
Them [55.64429518100676]
メタ学習では、ほとんどショット学習が中心的な問題であり、学習者は新しいタスクに迅速に適応しなければならない。
本稿では,メタラベル学習(MeLa)を提案する。メタラベル学習(MeLa)は,グローバルラベルを推論し,標準分類によるロバストな少数ショットモデルを得る新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-08-09T14:07:46Z) - ReSSL: Relational Self-Supervised Learning with Weak Augmentation [68.47096022526927]
自己教師付き学習は、データアノテーションなしで視覚表現を学ぶことに成功しました。
本稿では,異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナルSSLパラダイムを提案する。
提案したReSSLは,性能とトレーニング効率の両面で,従来の最先端アルゴリズムよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-07-20T06:53:07Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。