論文の概要: Exploiting Semantic Attributes for Transductive Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2303.09849v1
- Date: Fri, 17 Mar 2023 09:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:14:02.102740
- Title: Exploiting Semantic Attributes for Transductive Zero-Shot Learning
- Title(参考訳): トランスダクティブゼロショット学習における意味属性の活用
- Authors: Zhengbo Wang, Jian Liang, Zilei Wang, Tieniu Tan
- Abstract要約: ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
- 参考スコア(独自算出の注目度): 97.61371730534258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) aims to recognize unseen classes by generalizing the
relation between visual features and semantic attributes learned from the seen
classes. A recent paradigm called transductive zero-shot learning further
leverages unlabeled unseen data during training and has obtained impressive
results. These methods always synthesize unseen features from attributes
through a generative adversarial network to mitigate the bias towards seen
classes. However, they neglect the semantic information in the unlabeled unseen
data and thus fail to generate high-fidelity attribute-consistent unseen
features. To address this issue, we present a novel transductive ZSL method
that produces semantic attributes of the unseen data and imposes them on the
generative process. In particular, we first train an attribute decoder that
learns the mapping from visual features to semantic attributes. Then, from the
attribute decoder, we obtain pseudo-attributes of unlabeled data and integrate
them into the generative model, which helps capture the detailed differences
within unseen classes so as to synthesize more discriminative features.
Experiments on five standard benchmarks show that our method yields
state-of-the-art results for zero-shot learning.
- Abstract(参考訳): ゼロショット学習(ZSL)は、視覚的特徴と視覚的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
トランスダクティブゼロショット学習(Transductive zero-shot learning)と呼ばれる最近のパラダイムは、トレーニング中にラベルのない未確認データをさらに活用し、印象的な結果を得た。
これらの手法は常に属性から生成的対向ネットワークを通じて見えない特徴を合成し、見やすいクラスへのバイアスを軽減する。
しかし、ラベルなしの未確認データのセマンティック情報は無視され、したがって高忠実な属性一貫性の未確認特徴を生成できない。
そこで本研究では,未取得データの意味的属性を生成し,生成プロセスに強制する新しいトランスダクティブzsl法を提案する。
特に,視覚的特徴から意味的属性へのマッピングを学習する属性デコーダを訓練する。
そして,属性デコーダからラベルのないデータの擬似属性を取得し,それらを生成モデルに統合することにより,未確認クラスの詳細な相違を捉え,より識別的な特徴を合成する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
関連論文リスト
- CREST: Cross-modal Resonance through Evidential Deep Learning for Enhanced Zero-Shot Learning [48.46511584490582]
ゼロショット学習(ZSL)は、既知のカテゴリから未知のカテゴリへのセマンティックな知識伝達を活用することで、新しいクラスの認識を可能にする。
分布不均衡や属性共起といった現実世界の課題は、画像の局所的なばらつきの識別を妨げる。
これらの課題を克服するために、双方向のクロスモーダルZSLアプローチCRESTを提案する。
論文 参考訳(メタデータ) (2024-04-15T10:19:39Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Exploring Diffusion Time-steps for Unsupervised Representation Learning [72.43246871893936]
拡散時間ステップと隠れ属性を結合する理論的枠組みを構築する。
CelebA、FFHQ、Bedroomのデータセットでは、学習された機能は分類を大幅に改善する。
論文 参考訳(メタデータ) (2024-01-21T08:35:25Z) - Attribute-Aware Representation Rectification for Generalized Zero-Shot
Learning [19.65026043141699]
一般化ゼロショット学習(GZSL)は、一連の非バイアスの視覚-セマンティックマッピングを設計することによって、顕著な性能を得た。
本稿では,GZSLに対して,$mathbf(AR)2$という簡易かつ効果的な属性認識表現フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T11:30:32Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - Hybrid Routing Transformer for Zero-Shot Learning [83.64532548391]
本稿ではハイブリッド・ルーティング・トランス (HRT) と呼ばれる新しいトランス・デコーダモデルを提案する。
ボトムアップとトップダウンの動的ルーティング経路の両方で構築されたアクティブアテンションを組み込んで,属性に整合した視覚的特徴を生成する。
HRTデコーダでは,属性対応の視覚特徴,対応する属性セマンティクス,およびクラス属性ベクトル間の相関関係を静的なルーティングで計算し,最終クラスラベルの予測を生成する。
論文 参考訳(メタデータ) (2022-03-29T07:55:08Z) - Boosting Generative Zero-Shot Learning by Synthesizing Diverse Features
with Attribute Augmentation [21.72622601533585]
多様な特徴を合成してゼロショット学習(ZSL)を促進する新しいフレームワークを提案する。
本手法は,視覚特徴の実際の分布をシミュレートするために,拡張意味属性を用いて生成モデルを訓練する。
提案したモデルを4つのベンチマークデータセット上で評価し,現状に対する大幅な性能改善を観察した。
論文 参考訳(メタデータ) (2021-12-23T14:32:51Z) - Transductive Zero-Shot Learning by Decoupled Feature Generation [30.664199050468472]
本稿では,未確認のクラスからの未表示の視覚データを利用できるトランスダクティブ・セッティングに着目する。
本稿では,現実的な視覚的特徴を生成し,意味的属性を視覚的手がかりに変換するタスクを分離することを提案する。
本研究は,提案手法の有効性を解明する上で,関連する最先端技術に対する優位性を実証するための詳細なアブレーション研究である。
論文 参考訳(メタデータ) (2021-02-05T16:17:52Z) - Latent Embedding Feedback and Discriminative Features for Zero-Shot
Classification [139.44681304276]
ゼロショット学習は、トレーニング中にデータが利用できない、見えないカテゴリを分類することを目的としている。
Generative Adrial Networksは、クラス固有のセマンティック埋め込みを利用して、目に見えないクラス機能を合成する。
我々は,ゼロショット学習のすべての段階において,意味的一貫性を強制することを提案する。
論文 参考訳(メタデータ) (2020-03-17T17:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。