論文の概要: Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow
- arxiv url: http://arxiv.org/abs/2009.00303v1
- Date: Tue, 1 Sep 2020 09:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:18:20.635574
- Title: Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow
- Title(参考訳): VAE-Conditioned Generative Flowによる汎用ゼロショット学習
- Authors: Yu-Chao Gu, Le Zhang, Yun Liu, Shao-Ping Lu, Ming-Ming Cheng
- Abstract要約: 一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
- 参考スコア(独自算出の注目度): 83.27681781274406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalized zero-shot learning (GZSL) aims to recognize both seen and unseen
classes by transferring knowledge from semantic descriptions to visual
representations. Recent generative methods formulate GZSL as a missing data
problem, which mainly adopts GANs or VAEs to generate visual features for
unseen classes. However, GANs often suffer from instability, and VAEs can only
optimize the lower bound on the log-likelihood of observed data. To overcome
the above limitations, we resort to generative flows, a family of generative
models with the advantage of accurate likelihood estimation. More specifically,
we propose a conditional version of generative flows for GZSL, i.e.,
VAE-Conditioned Generative Flow (VAE-cFlow). By using VAE, the semantic
descriptions are firstly encoded into tractable latent distributions,
conditioned on that the generative flow optimizes the exact log-likelihood of
the observed visual features. We ensure the conditional latent distribution to
be both semantic meaningful and inter-class discriminative by i) adopting the
VAE reconstruction objective, ii) releasing the zero-mean constraint in VAE
posterior regularization, and iii) adding a classification regularization on
the latent variables. Our method achieves state-of-the-art GZSL results on five
well-known benchmark datasets, especially for the significant improvement in
the large-scale setting. Code is released at
https://github.com/guyuchao/VAE-cFlow-ZSL.
- Abstract(参考訳): 汎用ゼロショット学習(GZSL)は、意味記述から視覚表現へ知識を移すことによって、目に見えるクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用し、見えないクラスの視覚的特徴を生成する。
しかし、ganはしばしば不安定に陥り、vaesは観測データのログ類似度の下限のみを最適化できる。
上記の制限を克服するために、正確な精度推定の利点を生かした生成モデル群である生成フローを利用する。
具体的には,GZSL,すなわちVAE-Conditioned Generative Flow(VAE-cFlow)の条件付き生成フローを提案する。
VAEを用いることで、意味記述はまず、観測された視覚特徴の正確なログライクな振る舞いを最適化することを条件に、抽出可能な潜在分布に符号化される。
我々は条件付き潜在分布を意味的意味とクラス間識別の両方で保証する。
一 VAE再建の目的を採用すること。
二 VAE後続正則化におけるゼロ平均制約の解除及び
三 潜在変数に分類正規化を加えること。
提案手法は,5つのよく知られたベンチマークデータセットに対して,最新のGZSL結果を実現する。
コードはhttps://github.com/guyuchao/VAE-cFlow-ZSLで公開されている。
関連論文リスト
- Exploring Data Efficiency in Zero-Shot Learning with Diffusion Models [38.36200871549062]
Zero-Shot Learning (ZSL) は、クラスレベルでのデータ効率を向上させることで、分類器が見えないクラスを識別できるようにすることを目的としている。
これは、未確認クラスの事前に定義されたセマンティクスから画像特徴を生成することで実現される。
本稿では,限られた例が一般的に生成モデルの性能低下をもたらすことを示す。
この統合されたフレームワークは拡散モデルを導入し、クラスレベルとインスタンスレベルのデータ効率を改善する。
論文 参考訳(メタデータ) (2024-06-05T04:37:06Z) - Visual-Augmented Dynamic Semantic Prototype for Generative Zero-Shot Learning [56.16593809016167]
本稿では,視覚・視覚の正確なマッピングを学習するために,ジェネレータを高速化するビジュアル拡張動的セマンティックプロトタイプ(VADS)を提案する。
VADSは2つのモジュールから構成される:(1)視覚認識ドメイン知識学習モジュール(VDKL)は視覚特徴の局所バイアスとグローバル先行を学習し、純粋なガウス雑音を置き換え、よりリッチな事前ノイズ情報を提供する;(2)視覚指向セマンティックアップダクションモジュール(VOSU)は、サンプルの視覚表現に従ってセマンティックプロトタイプを更新する。
論文 参考訳(メタデータ) (2024-04-23T07:39:09Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z) - Invertible Zero-Shot Recognition Flows [42.839333265321905]
本研究はゼロショット学習(ZSL)に新たな生成モデル(フローベースモデル)を取り入れたものである。
提案したInvertible Zero-shot Flow (IZF) は、逆パスがデータサンプルを生成する間、非可逆フローネットワークの前方パスに分解されたデータ埋め込みを学習する。
広く採用されているZSLベンチマークの実験では、既存の手法よりもIZFの性能が著しく向上していることが示されている。
論文 参考訳(メタデータ) (2020-07-09T15:21:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。