論文の概要: Cross Knowledge-based Generative Zero-Shot Learning Approach with
Taxonomy Regularization
- arxiv url: http://arxiv.org/abs/2101.09892v1
- Date: Mon, 25 Jan 2021 04:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:07:39.284932
- Title: Cross Knowledge-based Generative Zero-Shot Learning Approach with
Taxonomy Regularization
- Title(参考訳): 分類規則化を用いたクロス知識に基づくゼロショット学習手法
- Authors: Cheng Xie, Hongxin Xiang, Ting Zeng, Yun Yang, Beibei Yu and Qing Liu
- Abstract要約: 我々は、Cross Knowledge Learning(CKL)スキームとTaxonomy Regularization(TR)を採用したネットワークベースのZSLアプローチを開発する。
CKLは、ZSLにセマンティックとビジュアルの機能を埋め込むための、より関連性の高いセマンティック機能をトレーニングできる。
TRは、生成ネットワークから生成されるより一般化された視覚特徴を持つ見えない画像との交差を著しく改善する。
- 参考スコア(独自算出の注目度): 5.280368849852332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although zero-shot learning (ZSL) has an inferential capability of
recognizing new classes that have never been seen before, it always faces two
fundamental challenges of the cross modality and crossdomain challenges. In
order to alleviate these problems, we develop a generative network-based ZSL
approach equipped with the proposed Cross Knowledge Learning (CKL) scheme and
Taxonomy Regularization (TR). In our approach, the semantic features are taken
as inputs, and the output is the synthesized visual features generated from the
corresponding semantic features. CKL enables more relevant semantic features to
be trained for semantic-to-visual feature embedding in ZSL, while Taxonomy
Regularization (TR) significantly improves the intersections with unseen images
with more generalized visual features generated from generative network.
Extensive experiments on several benchmark datasets (i.e., AwA1, AwA2, CUB, NAB
and aPY) show that our approach is superior to these state-of-the-art methods
in terms of ZSL image classification and retrieval.
- Abstract(参考訳): ゼロショット学習(ZSL)は、今までにない新しいクラスを認識するための推論能力を持っていますが、クロスモダリティとクロスドメインの課題の2つの基本的な課題に常に直面しています。
これらの問題を緩和するため,提案手法であるCross Knowledge Learning (CKL) とTaxonomy Regularization (TR) を組み合わせたネットワークベースのZSL手法を開発した。
提案手法では, セマンティックな特徴を入力とし, 出力は対応するセマンティックな特徴から生成した合成視覚的特徴である。
CKLは、ZSLにセマンティック・ツー・ビジュアルな特徴を埋め込むために、より関連性の高いセマンティックな特徴をトレーニングできるようにし、Taxonomy Regularization (TR)は、生成ネットワークから生成されたより一般化された視覚的特徴を持つ見えない画像との交点を大幅に改善する。
いくつかのベンチマークデータセット(例えば、AwA1、AwA2、CUB、NAB、aPY)に対する大規模な実験により、ZSL画像分類と検索の観点から、我々のアプローチはこれらの最先端手法よりも優れていることが示された。
関連論文リスト
- CREST: Cross-modal Resonance through Evidential Deep Learning for Enhanced Zero-Shot Learning [48.46511584490582]
ゼロショット学習(ZSL)は、既知のカテゴリから未知のカテゴリへのセマンティックな知識伝達を活用することで、新しいクラスの認識を可能にする。
分布不均衡や属性共起といった現実世界の課題は、画像の局所的なばらつきの識別を妨げる。
これらの課題を克服するために、双方向のクロスモーダルZSLアプローチCRESTを提案する。
論文 参考訳(メタデータ) (2024-04-15T10:19:39Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Learning Aligned Cross-Modal Representation for Generalized Zero-Shot
Classification [17.177622259867515]
一般化ゼロショット分類(GZSC)のためのアラインド・クロスモーダル表現(adigned Cross-Modal Representations, ACMR)の学習による革新的オートエンコーダネットワークを提案する。
具体的には,学習型分類器によって導かれる潜在部分空間上でのクロスモーダルな潜在特徴のアライメントを強化するために,新しい視覚・セマンティックアライメント(VSA)法を提案する。
さらに,潜伏変数の識別能力を高めるとともに,潜伏変数が崩壊する可能性を低減するための新しい情報拡張モジュール (IEM) を提案する。
論文 参考訳(メタデータ) (2021-12-24T03:35:37Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Zero-Shot Learning Based on Knowledge Sharing [0.0]
Zero-Shot Learning(ZSL)は、ごくわずかなトレーニングデータで分類問題を解決することを目的とした新しい研究です。
本稿では,意味的特徴の表現を充実させるために,知識共有(KS)を導入する。
KSをベースとして,実際の視覚特徴に非常に近い意味的特徴から擬似視覚特徴を生成するために,生成的対向ネットワークを適用した。
論文 参考訳(メタデータ) (2021-02-26T06:43:29Z) - Multi-Knowledge Fusion for New Feature Generation in Generalized
Zero-Shot Learning [4.241513887019675]
本稿では,複数知識からより汎用的な特徴を学習するための新しい生成的zsl法を提案する。
提案手法は,複数のZSLタスクに対する多数のベンチマークにおいて,既存の最先端手法と比較して,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-02-23T09:11:05Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。