論文の概要: Multi-Knowledge Fusion for New Feature Generation in Generalized
Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2102.11566v1
- Date: Tue, 23 Feb 2021 09:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 14:10:29.163852
- Title: Multi-Knowledge Fusion for New Feature Generation in Generalized
Zero-Shot Learning
- Title(参考訳): 一般化ゼロショット学習における新機能生成のためのマルチ知識融合
- Authors: Hongxin Xiang, Cheng Xie, Ting Zeng, Yun Yang
- Abstract要約: 本稿では,複数知識からより汎用的な特徴を学習するための新しい生成的zsl法を提案する。
提案手法は,複数のZSLタスクに対する多数のベンチマークにおいて,既存の最先端手法と比較して,性能が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 4.241513887019675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Suffering from the semantic insufficiency and domain-shift problems, most of
existing state-of-the-art methods fail to achieve satisfactory results for
Zero-Shot Learning (ZSL). In order to alleviate these problems, we propose a
novel generative ZSL method to learn more generalized features from
multi-knowledge with continuously generated new semantics in semantic-to-visual
embedding. In our approach, the proposed Multi-Knowledge Fusion Network
(MKFNet) takes different semantic features from multi-knowledge as input, which
enables more relevant semantic features to be trained for semantic-to-visual
embedding, and finally generates more generalized visual features by adaptively
fusing visual features from different knowledge domain. The proposed New
Feature Generator (NFG) with adaptive genetic strategy is used to enrich
semantic information on the one hand, and on the other hand it greatly improves
the intersection of visual feature generated by MKFNet and unseen visual
faetures. Empirically, we show that our approach can achieve significantly
better performance compared to existing state-of-the-art methods on a large
number of benchmarks for several ZSL tasks, including traditional ZSL,
generalized ZSL and zero-shot retrieval.
- Abstract(参考訳): 意味的不整合とドメインシフトの問題から、既存の最先端手法のほとんどはゼロショット学習(ZSL)の満足な結果を得ることができない。
これらの問題を緩和するために,複数知識からより汎用的な特徴を学習するための新しい生成型zsl法を提案する。
提案するMKFNet(Multi-Knowledge Fusion Network)は,複数の知識領域から視覚的特徴を適応的に融合させることで,より関連性の高い意味的特徴を意味-視覚的埋め込みのために訓練し,より汎用的な視覚的特徴を生成する。
適応的遺伝的戦略を持つ新しい特徴生成器(NFG)は,一方において意味情報を豊かにするために用いられ,他方では,MKFNetが生成する視覚的特徴の交叉と見えない視覚的特徴の交叉を大幅に改善する。
実験により,従来のZSL,一般化ZSL,ゼロショット検索など,ZSLタスクの多数のベンチマークにおいて,既存の最先端手法と比較して,本手法の方が優れた性能が得られることを示す。
関連論文リスト
- Towards Generative Class Prompt Learning for Fine-grained Visual Recognition [5.633314115420456]
ジェネレーティブ・クラス・プロンプト・ラーニングとコントラスト・マルチクラス・プロンプト・ラーニングを紹介する。
Generative Class Prompt Learningは、学習可能なクラスプロンプトを持つ数ショットの例に条件付けすることで、クラス埋め込みにおける視覚言語相乗性を改善する。
CoMPLeはこの基盤の上に構築されており、クラス間の分離を促進する対照的な学習コンポーネントを導入している。
論文 参考訳(メタデータ) (2024-09-03T12:34:21Z) - Chain-of-Spot: Interactive Reasoning Improves Large Vision-Language Models [81.71651422951074]
CoS(Chain-of-Spot)法は,注目領域に着目して特徴抽出を強化する手法である。
この技術により、LVLMは元の画像解像度を変更することなく、より詳細な視覚情報にアクセスすることができる。
実験の結果,LVLMの視覚的内容の理解と推論能力は著しく改善した。
論文 参考訳(メタデータ) (2024-03-19T17:59:52Z) - Can Generative Models Improve Self-Supervised Representation Learning? [0.7999703756441756]
本稿では、生成モデルを利用して意味論的に一貫した画像拡張を生成することによって、自己指導型学習パラダイムを充実させる新しいフレームワークを提案する。
その結果,下流タスクにおいて,学習した視覚表現の精度を最大10%向上させることができた。
論文 参考訳(メタデータ) (2024-03-09T17:17:07Z) - CLAP: Isolating Content from Style through Contrastive Learning with Augmented Prompts [11.752632557524969]
コンテンツの特徴を元の表現から切り離すために,データ拡張によるコントラスト学習を提案する。
多様なデータセットを対象とした実験では、ゼロショットと少数ショットの分類タスクが大幅に改善された。
論文 参考訳(メタデータ) (2023-11-28T03:00:59Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Generalized Zero-Shot Learning using Multimodal Variational Auto-Encoder
with Semantic Concepts [0.9054540533394924]
近年の手法では,意味空間と画像空間の相互マッピングの学習が試みられている。
画像特徴と意味空間の共有潜在空間を学習できるマルチモーダル変分自動エンコーダ(M-VAE)を提案する。
提案手法は, ゼロショット学習における最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-26T20:08:37Z) - Encoder Fusion Network with Co-Attention Embedding for Referring Image
Segmentation [87.01669173673288]
本稿では,視覚的エンコーダをマルチモーダルな特徴学習ネットワークに変換するエンコーダ融合ネットワーク(EFN)を提案する。
EFNには、マルチモーダル機能の並列更新を実現するコアテンションメカニズムが組み込まれている。
4つのベンチマークデータセットによる実験結果から,提案手法がポストプロセッシングを伴わずに最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-05T02:27:25Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Cross Knowledge-based Generative Zero-Shot Learning Approach with
Taxonomy Regularization [5.280368849852332]
我々は、Cross Knowledge Learning(CKL)スキームとTaxonomy Regularization(TR)を採用したネットワークベースのZSLアプローチを開発する。
CKLは、ZSLにセマンティックとビジュアルの機能を埋め込むための、より関連性の高いセマンティック機能をトレーニングできる。
TRは、生成ネットワークから生成されるより一般化された視覚特徴を持つ見えない画像との交差を著しく改善する。
論文 参考訳(メタデータ) (2021-01-25T04:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。