論文の概要: Novelty-Prepared Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2003.00497v1
- Date: Sun, 1 Mar 2020 14:44:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:47:00.926140
- Title: Novelty-Prepared Few-Shot Classification
- Title(参考訳): 新規に準備された少数ショット分類
- Authors: Chao Wang, Ruo-Ze Liu, Han-Jia Ye, Yang Yu
- Abstract要約: 本稿では,自己補足型ソフトマックス・ロス(SSL)と呼ばれる新規な補足型損失関数を,数ショットの分類に使用することを提案する。
CUB-200-2011とmini-ImageNetデータセットの実験では、SSLが最先端の性能を大幅に向上させることを示した。
- 参考スコア(独自算出の注目度): 24.42397780877619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot classification algorithms can alleviate the data scarceness issue,
which is vital in many real-world problems, by adopting models pre-trained from
abundant data in other domains. However, the pre-training process was commonly
unaware of the future adaptation to other concept classes. We disclose that a
classically fully trained feature extractor can leave little embedding space
for unseen classes, which keeps the model from well-fitting the new classes. In
this work, we propose to use a novelty-prepared loss function, called
self-compacting softmax loss (SSL), for few-shot classification. The SSL can
prevent the full occupancy of the embedding space. Thus the model is more
prepared to learn new classes. In experiments on CUB-200-2011 and mini-ImageNet
datasets, we show that SSL leads to significant improvement of the
state-of-the-art performance. This work may shed some light on considering the
model capacity for few-shot classification tasks.
- Abstract(参考訳): 少数ショットの分類アルゴリズムは、他の領域の豊富なデータから事前学習されたモデルを採用することで、多くの現実世界の問題で不可欠なデータ不足問題を軽減することができる。
しかし、トレーニング前のプロセスは、他の概念クラスへの将来の適応をよく知らなかった。
古典的に完全に訓練された特徴抽出器は、目に見えないクラスの埋め込みスペースをほとんど残さず、モデルが新しいクラスに適していないことを開示する。
本研究では,自己補足型ソフトマックス損失 (SSL) と呼ばれる新規な補足型損失関数を,数ショットの分類に使用することを提案する。
SSLは埋め込みスペースの完全な占有を防ぐことができる。
したがって、モデルは新しいクラスを学ぶ準備ができている。
CUB-200-2011とmini-ImageNetデータセットの実験では、SSLが最先端の性能を大幅に向上させることを示した。
この研究は、限定的な分類タスクのモデルのキャパシティを考慮することに光を当てるかもしれない。
関連論文リスト
- Less is More: On the Feature Redundancy of Pretrained Models When
Transferring to Few-shot Tasks [120.23328563831704]
事前訓練されたモデルを下流タスクに転送することは、ターゲットデータと線形探索を行うのと同じくらい簡単である。
線形探索では, 下流データが少ない場合に, 事前学習した特徴が極めて冗長であることを示す。
論文 参考訳(メタデータ) (2023-10-05T19:00:49Z) - Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - GMM-IL: Image Classification using Incrementally Learnt, Independent
Probabilistic Models for Small Sample Sizes [0.4511923587827301]
本稿では,視覚的特徴学習と確率モデルを組み合わせた2段階アーキテクチャを提案する。
我々は、ソフトマックスヘッドを用いた等価ネットワークのベンチマークを上回り、サンプルサイズが12以下の場合の精度が向上し、3つの不均衡なクラスプロファイルに対する重み付きF1スコアが向上した。
論文 参考訳(メタデータ) (2022-12-01T15:19:42Z) - Attaining Class-level Forgetting in Pretrained Model using Few Samples [18.251805180282346]
将来的には、プライバシーや倫理上の懸念から、いくつかのクラスが制限される可能性がある。
本稿では,モデルが残すクラスに対する予測能力に影響を与えることなく,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-19T15:36:01Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Few-Shot Lifelong Learning [35.05196800623617]
Few-Shot Lifelong Learningにより、深層学習モデルが短距離/連続学習を実行できます。
提案手法では,モデルからごく少数のパラメータを選択して,モデル全体をトレーニングする代わりに,新しいクラスのセットをトレーニングする。
提案手法は, miniImageNet, CIFAR-100, CUB-200データセットにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-01T13:26:57Z) - Adversarial Training of Variational Auto-encoders for Continual
Zero-shot Learning [1.90365714903665]
本稿では,全タスクの情報を保持する共有VAEモジュールとタスク固有のプライベートVAEモジュールで構成されるハイブリッドネットワークを提案する。
モデルのサイズは各タスクで増加し、タスク固有のスキルの破滅的な忘れを防止する。
ZSL (Zero-Shot Learning) と GZSL (Generalized Zero-Shot Learning) による逐次学習よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-07T11:21:24Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。