論文の概要: Contrastive Embedding for Generalized Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2103.16173v1
- Date: Tue, 30 Mar 2021 08:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 15:14:51.712146
- Title: Contrastive Embedding for Generalized Zero-Shot Learning
- Title(参考訳): 一般ゼロショット学習のためのコントラスト埋め込み
- Authors: Zongyan Han, Zhenyong Fu, Shuo Chen and Jian Yang
- Abstract要約: 汎用ゼロショット学習(GZSL)は、目に見えないクラスと見えないクラスの両方からオブジェクトを認識することを目的としている。
最近の特徴生成手法は、見当たらないクラスの視覚的特徴を合成できる生成モデルを学ぶ。
本稿では,生成モデルを組込みモデルに統合し,ハイブリッドgzslフレームワークを実現することを提案する。
- 参考スコア(独自算出の注目度): 22.050109158293402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalized zero-shot learning (GZSL) aims to recognize objects from both
seen and unseen classes, when only the labeled examples from seen classes are
provided. Recent feature generation methods learn a generative model that can
synthesize the missing visual features of unseen classes to mitigate the
data-imbalance problem in GZSL. However, the original visual feature space is
suboptimal for GZSL classification since it lacks discriminative information.
To tackle this issue, we propose to integrate the generation model with the
embedding model, yielding a hybrid GZSL framework. The hybrid GZSL approach
maps both the real and the synthetic samples produced by the generation model
into an embedding space, where we perform the final GZSL classification.
Specifically, we propose a contrastive embedding (CE) for our hybrid GZSL
framework. The proposed contrastive embedding can leverage not only the
class-wise supervision but also the instance-wise supervision, where the latter
is usually neglected by existing GZSL researches. We evaluate our proposed
hybrid GZSL framework with contrastive embedding, named CE-GZSL, on five
benchmark datasets. The results show that our CEGZSL method can outperform the
state-of-the-arts by a significant margin on three datasets. Our codes are
available on https://github.com/Hanzy1996/CE-GZSL.
- Abstract(参考訳): 汎用ゼロショット学習 (GZSL) は、目に見えるクラスと目に見えないクラスの両方からオブジェクトを認識することを目的としている。
近年,GZSLにおけるデータ不均衡問題を軽減するために,未確認クラスの視覚的特徴の欠如を生かした生成モデルを学習している。
しかし、元の視覚特徴空間は識別情報がないため、GZSL分類に最適である。
この問題に取り組むため,我々は生成モデルと組込みモデルの統合を提案し,ハイブリッドgzslフレームワークを実現した。
ハイブリッドGZSLアプローチは、生成モデルによって生成された実データと合成サンプルの両方を埋め込み空間にマッピングし、最終的なGZSL分類を行う。
具体的には,ハイブリッドGZSLフレームワークのためのコントラスト埋め込み(CE)を提案する。
提案するコントラスト埋め込みはクラス単位の監督だけでなく、インスタンス単位の監督も活用できるが、後者は通常、既存のgzslの研究によって無視される。
CE-GZSLという名前のコントラスト埋め込みによるハイブリッドGZSLフレームワークを5つのベンチマークデータセット上で評価した。
その結果,CEGZSL法は3つのデータセットに対して有意差で最先端の手法より優れていることがわかった。
私たちのコードはhttps://github.com/hanzy1996/ce-gzslで利用可能です。
関連論文リスト
- Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - From Zero-Shot to Few-Shot Learning: A Step of Embedding-Aware
Generative Models [21.603519845525483]
埋め込み認識生成モデル(EAGM)は、意味的空間と視覚的埋め込み空間の間にジェネレータを構築することにより、ゼロショット学習(ZSL)におけるデータ不足問題に対処する。
我々は、一歩後退し、埋め込み認識生成パラダイムを再考する時が来たと論じる。
論文 参考訳(メタデータ) (2023-02-08T13:53:18Z) - LETS-GZSL: A Latent Embedding Model for Time Series Generalized Zero
Shot Learning [1.4665304971699262]
本稿では,時系列分類(TSC)におけるGZSLの問題を解くために,時系列分類のための遅延埋め込みGZSL(LETS-GZSL)モデルを提案する。
我々のフレームワークは、未確認クラスの数が3より多い場合を除いて、ほとんどのデータセットで少なくとも55%の調和平均値を達成することができる。
論文 参考訳(メタデータ) (2022-07-25T09:31:22Z) - Disentangled Ontology Embedding for Zero-shot Learning [39.014714187825646]
知識グラフ(KG)とその変種オントロジーは知識表現に広く用いられており、ゼロショット学習(ZSL)の増強に非常に有効であることが示されている。
KGsを利用する既存のZSL法は、KGsで表されるクラス間関係の複雑さを全て無視する。
本稿では,ZSLの拡張に焦点をあて,意味的特性によって導かれる絡み合ったオントロジーの埋め込みを学習することを提案する。
また、生成モデルとグラフ伝搬モデルに基づく2つの新しいZSLソリューションを含む、DOZSLという新しいZSLフレームワークをコントリビュートする。
論文 参考訳(メタデータ) (2022-06-08T08:29:30Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - Generative Zero-Shot Learning for Semantic Segmentation of 3D Point
Cloud [79.99653758293277]
本稿では,ZSL(Zero-Shot Learning)とGZSL(Generalized ZSL)の両方を3次元データ上に生成する手法を提案する。
インダクティブZSLとインダクティブGZSLの両方に対して,ModelNet40分類における技術状況に到達または向上することを示す。
実験の結果,本手法は強いベースラインよりも優れており,さらに本手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T13:29:27Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Learning without Seeing nor Knowing: Towards Open Zero-Shot Learning [27.283748476678117]
一般化されたゼロショット学習(GZSL)では、クラス埋め込みを利用して見えないカテゴリを予測することができる。
オープンワールド設定に向けてGZSLを拡張するために,Open Zero-Shot Learning (OZSL)を提案する。
我々はOZSLを、未知のカテゴリのインスタンスを拒否しながら、見知らぬクラスを認識できる問題として定式化する。
論文 参考訳(メタデータ) (2021-03-23T10:30:50Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - A Review of Generalized Zero-Shot Learning Methods [31.539434340951786]
汎用ゼロショット学習(GZSL)は、教師付き学習において、いくつかの出力クラスが未知である条件下でデータサンプルを分類するモデルを訓練することを目的としている。
GZSLは、見た(ソース)クラスと見えない(ターゲット)クラスのセマンティック情報を活用して、見えないクラスと見えないクラスのギャップを埋める。
論文 参考訳(メタデータ) (2020-11-17T14:00:30Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。