論文の概要: Bi-directional Distribution Alignment for Transductive Zero-Shot
Learning
- arxiv url: http://arxiv.org/abs/2303.08698v1
- Date: Wed, 15 Mar 2023 15:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:12:22.356348
- Title: Bi-directional Distribution Alignment for Transductive Zero-Shot
Learning
- Title(参考訳): トランスダクティブゼロショット学習のための双方向分布アライメント
- Authors: Zhicai Wang, Yanbin Hao, Tingting Mu, Ouxiang Li, Shuo Wang, Xiangnan
He
- Abstract要約: そこで我々は,Bi-VAEGANと呼ばれる新しいゼロショット学習モデル(TZSL)を提案する。
視覚空間と補助空間の間の配向の強化によるシフトを大幅に改善する。
ベンチマーク評価では、Bi-VAEGANは、標準および一般化されたTZSL設定の両方の下で、新しい芸術の状態を達成している。
- 参考スコア(独自算出の注目度): 48.80413182126543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well-known that zero-shot learning (ZSL) can suffer severely from the
problem of domain shift, where the true and learned data distributions for the
unseen classes do not match. Although transductive ZSL (TZSL) attempts to
improve this by allowing the use of unlabelled examples from the unseen
classes, there is still a high level of distribution shift. We propose a novel
TZSL model (named as Bi-VAEGAN), which largely improves the shift by a
strengthened distribution alignment between the visual and auxiliary spaces.
The key proposal of the model design includes (1) a bi-directional distribution
alignment, (2) a simple but effective L_2-norm based feature normalization
approach, and (3) a more sophisticated unseen class prior estimation approach.
In benchmark evaluation using four datasets, Bi-VAEGAN achieves the new state
of the arts under both the standard and generalized TZSL settings. Code could
be found at https://github.com/Zhicaiwww/Bi-VAEGAN
- Abstract(参考訳): ゼロショット学習(ZSL)がドメインシフトの問題に深刻な障害を負うことはよく知られている。
トランスダクティブZSL (TZSL) は、未確認クラスから未実装の例を使用することで、この問題を改善しようとしているが、それでも高いレベルの分散シフトがある。
本研究では,視覚空間と補助空間の配置アライメントの強化によりシフトを大幅に改善する新しいtzslモデル(bi-vaegan)を提案する。
モデル設計の重要な提案は,(1)双方向分布アライメント,(2)単純かつ効果的なl_2ノルム型特徴正規化アプローチ,(3)より洗練された非seenクラス事前推定手法である。
4つのデータセットを用いたベンチマーク評価において、Bi-VAEGANは、標準および一般化されたTZSL設定の両方の下で、芸術の新たな状態を達成する。
コードはhttps://github.com/Zhicaiwww/Bi-VAEGANで見つけることができる。
関連論文リスト
- An Iterative Co-Training Transductive Framework for Zero Shot Learning [24.401200814880124]
本稿では、2つの異なるベースZSLモデルと交換モジュールを含む反復的協調学習フレームワークを提案する。
各イテレーションにおいて、2つの異なるZSLモデルは、目に見えないクラスサンプルの擬似ラベルを別々に予測するために、共同訓練される。
我々のフレームワークは、2つのモデルの分類能力の潜在的な相補性をフル活用することで、ZSLの性能を徐々に向上させることができる。
論文 参考訳(メタデータ) (2022-03-30T04:08:44Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - HSVA: Hierarchical Semantic-Visual Adaptation for Zero-Shot Learning [74.76431541169342]
ゼロショット学習(ZSL)は、目に見えないクラス認識の問題に取り組み、目に見えないクラスから目に見えないクラスに意味的な知識を移す。
本稿では,意味領域と視覚領域を協調させる新しい階層型意味視覚適応(HSVA)フレームワークを提案する。
4つのベンチマークデータセットの実験では、HSVAは従来のZSLと一般的なZSLの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-30T14:27:50Z) - A Simple Approach for Zero-Shot Learning based on Triplet Distribution
Embeddings [6.193231258199234]
ZSLは、セマンティック情報を利用して、ラベル付きトレーニングデータを使わずに、目に見えないクラスを認識することを目指している。
既存のZSL法は主にベクトルを用いて意味空間への埋め込みを表現する。
分散埋め込みの利用を利用してこの問題に対処する。
論文 参考訳(メタデータ) (2021-03-29T20:26:20Z) - Task Aligned Generative Meta-learning for Zero-shot Learning [64.16125851588437]
ゼロショット学習のためのタスク整合型ジェネラティブメタラーニングモデル(TGMZ)の提案
TGMZはバイアスのあるトレーニングを緩和し、メタZSLが多様な分布を含む現実世界のデータセットに対応できるようにする。
最先端アルゴリズムとの比較により,awa1,awa2,cub,apyデータセット上でtgmzが達成した2.1%,3.0%,2.5%,7.6%の改善が示された。
論文 参考訳(メタデータ) (2021-03-03T05:18:36Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z) - From Anchor Generation to Distribution Alignment: Learning a
Discriminative Embedding Space for Zero-Shot Recognition [46.47620562161315]
ゼロショット学習(ZSL)では、分類されるサンプルは通常、属性などのサイド情報テンプレートに投影される。
我々は,DAGDA(Distriminative Anchor Generation and Distribution Alignment Model)と呼ばれる新しいフレームワークを提案する。
まず, 拡散型グラフ畳み込みネットワークを用いて, クラス情報と側情報の相互作用を明示的にモデル化し, 識別的アンカーを生成する手法を提案する。
第二に、アンカー空間におけるサンプルと対応するアンカーとをさらに整合させるため、細粒度に分布を洗練させることを目的として、意味的関係正則化を導入する。
論文 参考訳(メタデータ) (2020-02-10T05:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。