論文の概要: Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2009.07451v3
- Date: Thu, 4 Mar 2021 07:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:29:50.947935
- Title: Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning
- Title(参考訳): ゼロショット学習のための情報ボトルネック制約付き潜在双方向埋め込み
- Authors: Yang Liu, Lei Zhou, Xiao Bai, Lin Gu, Tatsuya Harada, Jun Zhou
- Abstract要約: 本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
- 参考スコア(独自算出の注目度): 59.58381904522967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) aims to recognize novel classes by transferring
semantic knowledge from seen classes to unseen classes. Though many ZSL methods
rely on a direct mapping between the visual and the semantic space, the
calibration deviation and hubness problem limit the generalization capability
to unseen classes. Recently emerged generative ZSL methods generate unseen
image features to transform ZSL into a supervised classification problem.
However, most generative models still suffer from the seen-unseen bias problem
as only seen data is used for training. To address these issues, we propose a
novel bidirectional embedding based generative model with a tight
visual-semantic coupling constraint. We learn a unified latent space that
calibrates the embedded parametric distributions of both visual and semantic
spaces. Since the embedding from high-dimensional visual features comprise much
non-semantic information, the alignment of visual and semantic in latent space
would inevitably been deviated. Therefore, we introduce information bottleneck
(IB) constraint to ZSL for the first time to preserve essential attribute
information during the mapping. Specifically, we utilize the uncertainty
estimation and the wake-sleep procedure to alleviate the feature noises and
improve model abstraction capability. In addition, our method can be easily
extended to transductive ZSL setting by generating labels for unseen images. We
then introduce a robust loss to solve this label noise problem. Extensive
experimental results show that our method outperforms the state-of-the-art
methods in different ZSL settings on most benchmark datasets. The code will be
available at https://github.com/osierboy/IBZSL.
- Abstract(参考訳): ゼロショット学習(ZSL)は、目に見えるクラスから目に見えないクラスに意味的な知識を移すことによって、新しいクラスを認識することを目的としている。
多くのZSL法は視覚空間と意味空間の直接マッピングに依存しているが、キャリブレーション偏差とハブ性問題は一般化能力を目に見えないクラスに制限する。
最近出現した生成型ZSL法は、ZSLを教師付き分類問題に変換するために見えない画像特徴を生成する。
しかし、ほとんどの生成モデルは、トレーニングに使用されるデータのみであるため、まだ見受けられないバイアス問題に苦しんでいる。
そこで本研究では, 密接な視覚-感覚結合制約を持つ双方向埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
高次元視覚特徴からの埋め込みは、多くの非意味情報を含むので、潜在空間における視覚と意味のアライメントは必然的に逸脱する。
そこで本研究では,ZSLに初めて情報ボトルネック(IB)制約を導入し,マッピング中に本質的な属性情報を保持する。
具体的には,不確実性推定と覚醒手順を利用して特徴雑音を緩和し,モデルの抽象化能力を向上させる。
また, 画像のラベルを生成することで, トランスダクティブZSL設定に容易に拡張することができる。
そして、このラベルノイズ問題を解決するためにロバストな損失を導入する。
広範な実験結果から,本手法は,ほとんどのベンチマークデータセットのzsl設定において,最先端のメソッドよりも優れていた。
コードはhttps://github.com/osierboy/IBZSLで入手できる。
関連論文リスト
- Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - Bi-directional Distribution Alignment for Transductive Zero-Shot
Learning [48.80413182126543]
そこで我々は,Bi-VAEGANと呼ばれる新しいゼロショット学習モデル(TZSL)を提案する。
視覚空間と補助空間の間の配向の強化によるシフトを大幅に改善する。
ベンチマーク評価では、Bi-VAEGANは、標準および一般化されたTZSL設定の両方の下で、新しい芸術の状態を達成している。
論文 参考訳(メタデータ) (2023-03-15T15:32:59Z) - A Simple Approach for Zero-Shot Learning based on Triplet Distribution
Embeddings [6.193231258199234]
ZSLは、セマンティック情報を利用して、ラベル付きトレーニングデータを使わずに、目に見えないクラスを認識することを目指している。
既存のZSL法は主にベクトルを用いて意味空間への埋め込みを表現する。
分散埋め込みの利用を利用してこの問題に対処する。
論文 参考訳(メタデータ) (2021-03-29T20:26:20Z) - Zero-Shot Learning Based on Knowledge Sharing [0.0]
Zero-Shot Learning(ZSL)は、ごくわずかなトレーニングデータで分類問題を解決することを目的とした新しい研究です。
本稿では,意味的特徴の表現を充実させるために,知識共有(KS)を導入する。
KSをベースとして,実際の視覚特徴に非常に近い意味的特徴から擬似視覚特徴を生成するために,生成的対向ネットワークを適用した。
論文 参考訳(メタデータ) (2021-02-26T06:43:29Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z) - Generative Model-driven Structure Aligning Discriminative Embeddings for
Transductive Zero-shot Learning [21.181715602603436]
本稿では、潜在空間における視覚的および意味的なデータを整列する投影関数を学習するためのニューラルネットワークに基づくモデルを提案する。
AWA1, AWA2, CUB, SUN, FLOなどの標準ベンチマークデータセットにおいて, 優れた性能を示す。
また,ラベル付きデータ構造が極めて少ない場合においても,モデルの有効性を示す。
論文 参考訳(メタデータ) (2020-05-09T18:48:20Z) - Density-Aware Graph for Deep Semi-Supervised Visual Recognition [102.9484812869054]
半教師付き学習(SSL)は、視覚認識のためのディープニューラルネットワークの一般化能力を改善するために広く研究されている。
本稿では,周辺情報を容易に活用できる新しい密度対応グラフを構築することでSSL問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-03-30T02:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。