論文の概要: Multi-Knowledge Fusion for New Feature Generation in Generalized
Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2102.11566v1
- Date: Tue, 23 Feb 2021 09:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 14:10:29.163852
- Title: Multi-Knowledge Fusion for New Feature Generation in Generalized
Zero-Shot Learning
- Title(参考訳): 一般化ゼロショット学習における新機能生成のためのマルチ知識融合
- Authors: Hongxin Xiang, Cheng Xie, Ting Zeng, Yun Yang
- Abstract要約: 本稿では,複数知識からより汎用的な特徴を学習するための新しい生成的zsl法を提案する。
提案手法は,複数のZSLタスクに対する多数のベンチマークにおいて,既存の最先端手法と比較して,性能が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 4.241513887019675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Suffering from the semantic insufficiency and domain-shift problems, most of
existing state-of-the-art methods fail to achieve satisfactory results for
Zero-Shot Learning (ZSL). In order to alleviate these problems, we propose a
novel generative ZSL method to learn more generalized features from
multi-knowledge with continuously generated new semantics in semantic-to-visual
embedding. In our approach, the proposed Multi-Knowledge Fusion Network
(MKFNet) takes different semantic features from multi-knowledge as input, which
enables more relevant semantic features to be trained for semantic-to-visual
embedding, and finally generates more generalized visual features by adaptively
fusing visual features from different knowledge domain. The proposed New
Feature Generator (NFG) with adaptive genetic strategy is used to enrich
semantic information on the one hand, and on the other hand it greatly improves
the intersection of visual feature generated by MKFNet and unseen visual
faetures. Empirically, we show that our approach can achieve significantly
better performance compared to existing state-of-the-art methods on a large
number of benchmarks for several ZSL tasks, including traditional ZSL,
generalized ZSL and zero-shot retrieval.
- Abstract(参考訳): 意味的不整合とドメインシフトの問題から、既存の最先端手法のほとんどはゼロショット学習(ZSL)の満足な結果を得ることができない。
これらの問題を緩和するために,複数知識からより汎用的な特徴を学習するための新しい生成型zsl法を提案する。
提案するMKFNet(Multi-Knowledge Fusion Network)は,複数の知識領域から視覚的特徴を適応的に融合させることで,より関連性の高い意味的特徴を意味-視覚的埋め込みのために訓練し,より汎用的な視覚的特徴を生成する。
適応的遺伝的戦略を持つ新しい特徴生成器(NFG)は,一方において意味情報を豊かにするために用いられ,他方では,MKFNetが生成する視覚的特徴の交叉と見えない視覚的特徴の交叉を大幅に改善する。
実験により,従来のZSL,一般化ZSL,ゼロショット検索など,ZSLタスクの多数のベンチマークにおいて,既存の最先端手法と比較して,本手法の方が優れた性能が得られることを示す。
関連論文リスト
- Improving vision-language alignment with graph spiking hybrid Networks [6.707524980629404]
本稿では,細粒度のセマンティックな特徴を生成するために,パノプティックセマンティック・セマンティック・セマンティクスの活用を必要とする包括的ビジュアルセマンティクス表現モジュールを提案する。
視覚的セマンティック情報を符号化するために,SNNとGATの相補的な利点を統合したグラフスパイキングハイブリッドネットワーク(GSHN)を提案する。
論文 参考訳(メタデータ) (2025-01-31T11:55:17Z) - Optimizing Speech Multi-View Feature Fusion through Conditional Computation [51.23624575321469]
自己教師付き学習(SSL)機能は、軽量で多目的な多視点音声表現を提供する。
SSLは、FBanksのような従来のスペクトル機能とアップデートの方向で競合する。
本稿では,条件計算に基づく新しい一般化された特徴融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-14T12:12:06Z) - Towards Generative Class Prompt Learning for Fine-grained Visual Recognition [5.633314115420456]
ジェネレーティブ・クラス・プロンプト・ラーニングとコントラスト・マルチクラス・プロンプト・ラーニングを紹介する。
Generative Class Prompt Learningは、学習可能なクラスプロンプトを持つ数ショットの例に条件付けすることで、クラス埋め込みにおける視覚言語相乗性を改善する。
CoMPLeはこの基盤の上に構築されており、クラス間の分離を促進する対照的な学習コンポーネントを導入している。
論文 参考訳(メタデータ) (2024-09-03T12:34:21Z) - Attend and Enrich: Enhanced Visual Prompt for Zero-Shot Learning [114.59476118365266]
視覚表現豊か化のための意味強調プロンプトを抽出するための視覚的プロンプトに意味情報を付与するAENetを提案する。
AENetは、2つの重要なステップから構成される: 1) 視覚的・属性的モダリティの概念調和トークンを探索し、一貫した視覚的セマンティックな概念を表す様相共有トークンに基づく。
論文 参考訳(メタデータ) (2024-06-05T07:59:48Z) - Chain-of-Spot: Interactive Reasoning Improves Large Vision-Language Models [81.71651422951074]
CoS(Chain-of-Spot)法は,注目領域に着目して特徴抽出を強化する手法である。
この技術により、LVLMは元の画像解像度を変更することなく、より詳細な視覚情報にアクセスすることができる。
実験の結果,LVLMの視覚的内容の理解と推論能力は著しく改善した。
論文 参考訳(メタデータ) (2024-03-19T17:59:52Z) - CLAP: Isolating Content from Style through Contrastive Learning with Augmented Prompts [11.752632557524969]
コンテンツの特徴を元の表現から切り離すために,データ拡張によるコントラスト学習を提案する。
多様なデータセットを対象とした実験では、ゼロショットと少数ショットの分類タスクが大幅に改善された。
論文 参考訳(メタデータ) (2023-11-28T03:00:59Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Generalized Zero-Shot Learning using Multimodal Variational Auto-Encoder
with Semantic Concepts [0.9054540533394924]
近年の手法では,意味空間と画像空間の相互マッピングの学習が試みられている。
画像特徴と意味空間の共有潜在空間を学習できるマルチモーダル変分自動エンコーダ(M-VAE)を提案する。
提案手法は, ゼロショット学習における最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-26T20:08:37Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Cross Knowledge-based Generative Zero-Shot Learning Approach with
Taxonomy Regularization [5.280368849852332]
我々は、Cross Knowledge Learning(CKL)スキームとTaxonomy Regularization(TR)を採用したネットワークベースのZSLアプローチを開発する。
CKLは、ZSLにセマンティックとビジュアルの機能を埋め込むための、より関連性の高いセマンティック機能をトレーニングできる。
TRは、生成ネットワークから生成されるより一般化された視覚特徴を持つ見えない画像との交差を著しく改善する。
論文 参考訳(メタデータ) (2021-01-25T04:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。