論文の概要: Generative Model-driven Structure Aligning Discriminative Embeddings for
Transductive Zero-shot Learning
- arxiv url: http://arxiv.org/abs/2005.04492v1
- Date: Sat, 9 May 2020 18:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 07:11:30.017370
- Title: Generative Model-driven Structure Aligning Discriminative Embeddings for
Transductive Zero-shot Learning
- Title(参考訳): トランスダクティブゼロショット学習のための識別埋め込みを考慮した生成モデル駆動構造
- Authors: Omkar Gune, Mainak Pal, Preeti Mukherjee, Biplab Banerjee and Subhasis
Chaudhuri
- Abstract要約: 本稿では、潜在空間における視覚的および意味的なデータを整列する投影関数を学習するためのニューラルネットワークに基づくモデルを提案する。
AWA1, AWA2, CUB, SUN, FLOなどの標準ベンチマークデータセットにおいて, 優れた性能を示す。
また,ラベル付きデータ構造が極めて少ない場合においても,モデルの有効性を示す。
- 参考スコア(独自算出の注目度): 21.181715602603436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot Learning (ZSL) is a transfer learning technique which aims at
transferring knowledge from seen classes to unseen classes. This knowledge
transfer is possible because of underlying semantic space which is common to
seen and unseen classes. Most existing approaches learn a projection function
using labelled seen class data which maps visual data to semantic data. In this
work, we propose a shallow but effective neural network-based model for
learning such a projection function which aligns the visual and semantic data
in the latent space while simultaneously making the latent space embeddings
discriminative. As the above projection function is learned using the seen
class data, the so-called projection domain shift exists. We propose a
transductive approach to reduce the effect of domain shift, where we utilize
unlabeled visual data from unseen classes to generate corresponding semantic
features for unseen class visual samples. While these semantic features are
initially generated using a conditional variational auto-encoder, they are used
along with the seen class data to improve the projection function. We
experiment on both inductive and transductive setting of ZSL and generalized
ZSL and show superior performance on standard benchmark datasets AWA1, AWA2,
CUB, SUN, FLO, and APY. We also show the efficacy of our model in the case of
extremely less labelled data regime on different datasets in the context of
ZSL.
- Abstract(参考訳): Zero-shot Learning (ZSL) は、見知らぬクラスから見つからないクラスへ知識を伝達することを目的とした伝達学習技術である。
この知識伝達は、目に見えるクラスや見当たらないクラスに共通する意味空間によって可能となる。
既存のほとんどのアプローチは、視覚データを意味データにマッピングするラベル付きクラスデータを使ってプロジェクション関数を学ぶ。
そこで本研究では,潜在空間における視覚的および意味的データを整合させ,同時に潜在空間埋め込みを判別する投影関数を学習するための,浅く効果的なニューラルネットワークモデルを提案する。
上記の射影関数はクラスデータを用いて学習されるので、いわゆる射影領域シフトが存在する。
ドメインシフトの効果を低減するためのトランスダクティブアプローチを提案し、未確認クラスからラベルなしの視覚データを用いて、未確認クラス視覚サンプルに対する対応する意味的特徴を生成する。
これらのセマンティック機能は、最初は条件付き変分自動エンコーダを使用して生成されるが、投影関数を改善するために、クラスデータとともに使用される。
zslと一般化zslのインダクティブ設定とトランスダクティブ設定の両方を実験し、標準ベンチマークデータセットであるawa1、awa2、cub、sun、flo、apyにおいて優れた性能を示す。
また,ZSLの文脈におけるデータセットのラベル付けが極めて少ない場合においても,モデルの有効性を示す。
関連論文リスト
- An Integral Projection-based Semantic Autoencoder for Zero-Shot Learning [0.46644955105516456]
ゼロショット学習(ZSL)分類は、トレーニングセットに含まれないクラス(ラベル)を分類または予測する(見えないクラス)。
近年の研究では、エンコーダが視覚的特徴空間をセマンティック空間に埋め込み、デコーダが元の視覚的特徴空間を再構成する、異なる意味的オートエンコーダ(SAE)モデルが提案されている。
本稿では,意味空間でベクトル化された視覚的特徴空間を潜在表現空間に投影する統合投影型セマンティックオートエンコーダ(IP-SAE)を提案する。
論文 参考訳(メタデータ) (2023-06-26T12:06:20Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - Linking data separation, visual separation, and classifier performance
using pseudo-labeling by contrastive learning [125.99533416395765]
最終分類器の性能は、潜在空間に存在するデータ分離と、射影に存在する視覚的分離に依存すると論じる。
本研究は,ヒト腸管寄生虫の5つの現実的課題の画像データセットを1%の教師付きサンプルで分類し,その結果を実証する。
論文 参考訳(メタデータ) (2023-02-06T10:01:38Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Learning Robust Visual-semantic Mapping for Zero-shot Learning [8.299945169799795]
ZSL(Zero-shot Learning)の重要な構成要素の1つである意味的特徴空間の完全強化に注力する。
ZSLでは、視覚的特徴空間と意味的特徴空間の間のマッピング関数をラベル付きクラス例でトレーニングするのが一般的である。
このようなパラダイムでは、ZSLモデルはマッピング関数を構築および再利用する際にドメインシフトの問題に容易に苦しむ可能性がある。
論文 参考訳(メタデータ) (2021-04-12T17:39:38Z) - Transductive Zero-Shot Learning by Decoupled Feature Generation [30.664199050468472]
本稿では,未確認のクラスからの未表示の視覚データを利用できるトランスダクティブ・セッティングに着目する。
本稿では,現実的な視覚的特徴を生成し,意味的属性を視覚的手がかりに変換するタスクを分離することを提案する。
本研究は,提案手法の有効性を解明する上で,関連する最先端技術に対する優位性を実証するための詳細なアブレーション研究である。
論文 参考訳(メタデータ) (2021-02-05T16:17:52Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - A Novel Perspective to Zero-shot Learning: Towards an Alignment of
Manifold Structures via Semantic Feature Expansion [17.48923061278128]
ゼロショット学習の一般的な実践は、視覚的特徴空間と意味的特徴空間の間の投影をラベル付きクラス例で訓練することである。
このようなパラダイムの下では、既存のほとんどのメソッドは容易にドメインシフトの問題に悩まされ、ゼロショット認識の性能が低下する。
本稿では, 意味的特徴拡張による多様体構造のアライメントを考慮した AMS-SFE という新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-04-30T14:08:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。