論文の概要: From Zero-Shot to Few-Shot Learning: A Step of Embedding-Aware
Generative Models
- arxiv url: http://arxiv.org/abs/2302.04060v1
- Date: Wed, 8 Feb 2023 13:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:20:55.127343
- Title: From Zero-Shot to Few-Shot Learning: A Step of Embedding-Aware
Generative Models
- Title(参考訳): Zero-ShotからFew-Shot Learningへ:埋め込み型生成モデルのステップ
- Authors: Liangjun Feng, Jiancheng Zhao, Chunhui Zhao
- Abstract要約: 埋め込み認識生成モデル(EAGM)は、意味的空間と視覚的埋め込み空間の間にジェネレータを構築することにより、ゼロショット学習(ZSL)におけるデータ不足問題に対処する。
我々は、一歩後退し、埋め込み認識生成パラダイムを再考する時が来たと論じる。
- 参考スコア(独自算出の注目度): 21.603519845525483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding-aware generative model (EAGM) addresses the data insufficiency
problem for zero-shot learning (ZSL) by constructing a generator between
semantic and visual embedding spaces. Thanks to the predefined benchmark and
protocols, the number of proposed EAGMs for ZSL is increasing rapidly. We argue
that it is time to take a step back and reconsider the embedding-aware
generative paradigm. The purpose of this paper is three-fold. First, given the
fact that the current embedding features in benchmark datasets are somehow
out-of-date, we improve the performance of EAGMs for ZSL remarkably with
embarrassedly simple modifications on the embedding features. This is an
important contribution, since the results reveal that the embedding of EAGMs
deserves more attention. Second, we compare and analyze a significant number of
EAGMs in depth. Based on five benchmark datasets, we update the
state-of-the-art results for ZSL and give a strong baseline for few-shot
learning (FSL), including the classic unseen-class few-shot learning (UFSL) and
the more challenging seen-class few-shot learning (SFSL). Finally, a
comprehensive generative model repository, namely, generative any-shot learning
(GASL) repository, is provided, which contains the models, features,
parameters, and settings of EAGMs for ZSL and FSL. Any results in this paper
can be readily reproduced with only one command line based on GASL.
- Abstract(参考訳): 埋め込み認識生成モデル(EAGM)は、意味的空間と視覚的埋め込み空間の間にジェネレータを構築することにより、ゼロショット学習(ZSL)におけるデータ不足問題に対処する。
事前定義されたベンチマークとプロトコルのおかげで、ZSL用のEAGMが急速に増えている。
我々は一歩後退し、埋め込み型生成パラダイムを再考する時が来たと論じる。
本論文の目的は3倍である。
まず、ベンチマークデータセットの現在の組み込み機能が何らかの時代遅れであるという事実から、組み込み機能に対する恥ずかしいほど単純な修正によって、zslのeagmsのパフォーマンスが著しく向上します。
これは重要な貢献であり、EAGMの埋め込みがより注目に値する結果となった。
第2に,多数のEAGMを深く比較し,分析する。
5つのベンチマークデータセットに基づいて、ZSLの最先端の結果を更新し、古典的未確認の複数ショットラーニング(UFSL)や、より難易度の高い数ショットラーニング(SFSL)を含む、数ショットラーニング(FSL)の強力なベースラインを提供する。
最後に、ZSLとFSLのためのEAGMのモデル、特徴、パラメータ、設定を含む包括的な生成モデルリポジトリ、すなわち、GASL(generative any-shot learning)リポジトリが提供される。
本論文の任意の結果は,GASLに基づく1つのコマンド行だけで容易に再現できる。
関連論文リスト
- Data-Free Generalized Zero-Shot Learning [45.86614536578522]
データフリーゼロショット学習(DFZSL)のための汎用フレームワークを提案する。
我々のフレームワークは、一般化ZSLの5つの一般的なベンチマークと、ベース・ツー・ニューZSLの11のベンチマークで評価されている。
論文 参考訳(メタデータ) (2024-01-28T13:26:47Z) - LETS-GZSL: A Latent Embedding Model for Time Series Generalized Zero
Shot Learning [1.4665304971699262]
本稿では,時系列分類(TSC)におけるGZSLの問題を解くために,時系列分類のための遅延埋め込みGZSL(LETS-GZSL)モデルを提案する。
我々のフレームワークは、未確認クラスの数が3より多い場合を除いて、ほとんどのデータセットで少なくとも55%の調和平均値を達成することができる。
論文 参考訳(メタデータ) (2022-07-25T09:31:22Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Generative Zero-Shot Learning for Semantic Segmentation of 3D Point
Cloud [79.99653758293277]
本稿では,ZSL(Zero-Shot Learning)とGZSL(Generalized ZSL)の両方を3次元データ上に生成する手法を提案する。
インダクティブZSLとインダクティブGZSLの両方に対して,ModelNet40分類における技術状況に到達または向上することを示す。
実験の結果,本手法は強いベースラインよりも優れており,さらに本手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T13:29:27Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Contrastive Embedding for Generalized Zero-Shot Learning [22.050109158293402]
汎用ゼロショット学習(GZSL)は、目に見えないクラスと見えないクラスの両方からオブジェクトを認識することを目的としている。
最近の特徴生成手法は、見当たらないクラスの視覚的特徴を合成できる生成モデルを学ぶ。
本稿では,生成モデルを組込みモデルに統合し,ハイブリッドgzslフレームワークを実現することを提案する。
論文 参考訳(メタデータ) (2021-03-30T08:54:03Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - Generative Replay-based Continual Zero-Shot Learning [7.909034037183046]
再生再生型連続ZSL(GRCZSL)を開発した。
提案手法は従来のZSLにストリーミングデータから学び、以前のタスクの経験を忘れることなく新しい知識を得ることができる。
GRZSL法は,実世界の問題設定をシミュレートした連続学習の単一ヘッド設定のために開発された。
論文 参考訳(メタデータ) (2021-01-22T00:03:34Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。