論文の概要: Region Semantically Aligned Network for Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2110.07130v1
- Date: Thu, 14 Oct 2021 03:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 05:57:43.707130
- Title: Region Semantically Aligned Network for Zero-Shot Learning
- Title(参考訳): ゼロショット学習のための領域セマンティックアライズドネットワーク
- Authors: Ziyang Wang, Yunhao Gou, Jingjing Li, Yu Zhang, Yang Yang
- Abstract要約: 本研究では、未確認クラスの局所的特徴をそれらの意味属性にマッピングする地域意味ネットワーク(RSAN)を提案する。
出力の特定の領域から各属性を取得し、これらの属性を認識に活用する。
いくつかの標準ZSLデータセットの実験では、提案したRSAN法の利点が示され、最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 18.18665627472823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot learning (ZSL) aims to recognize unseen classes based on the
knowledge of seen classes. Previous methods focused on learning direct
embeddings from global features to the semantic space in hope of knowledge
transfer from seen classes to unseen classes. However, an unseen class shares
local visual features with a set of seen classes and leveraging global visual
features makes the knowledge transfer ineffective. To tackle this problem, we
propose a Region Semantically Aligned Network (RSAN), which maps local features
of unseen classes to their semantic attributes. Instead of using global
features which are obtained by an average pooling layer after an image encoder,
we directly utilize the output of the image encoder which maintains local
information of the image. Concretely, we obtain each attribute from a specific
region of the output and exploit these attributes for recognition. As a result,
the knowledge of seen classes can be successfully transferred to unseen classes
in a region-bases manner. In addition, we regularize the image encoder through
attribute regression with a semantic knowledge to extract robust and
attribute-related visual features. Experiments on several standard ZSL datasets
reveal the benefit of the proposed RSAN method, outperforming state-of-the-art
methods.
- Abstract(参考訳): zero-shot learning (zsl) は目に見えないクラスの知識に基づいて認識することを目的としている。
従来は,グローバルな特徴から意味空間への直接埋め込みの学習に焦点が当てられていた。
しかし、見知らぬクラスは、ローカルな視覚的特徴と、見知らぬクラスの集合を共有し、グローバルな視覚的特徴を活用することで、知識伝達を効果的にしない。
この問題に対処するために,未確認クラスの局所的特徴をそれらの意味属性にマッピングする地域意味ネットワーク(RSAN)を提案する。
画像エンコーダの後に平均プーリング層によって得られる大域的な特徴を利用する代わりに、画像の局所的な情報を保持する画像エンコーダの出力を直接利用する。
具体的には、出力の特定の領域から各属性を取得し、これらの属性を認識に活用する。
その結果、参照されるクラスの知識は、リージョンベースで、未取得のクラスにうまく移行できる。
さらに,属性回帰と意味知識を用いて画像エンコーダを正則化し,ロバストで属性関連の視覚特徴を抽出する。
いくつかの標準的なzslデータセットにおける実験により、提案されたrsan法の利点が明らかになった。
関連論文リスト
- High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Deep Semantic-Visual Alignment for Zero-Shot Remote Sensing Image Scene
Classification [26.340737217001497]
ゼロショット学習(ZSL)は、トレーニング中に見えない新しいクラスを識別する。
以前のZSLモデルは、主に言語モデルから抽出された手作業でラベル付けされた属性や単語の埋め込みに依存し、見受けられるクラスから新しいクラスに知識を伝達する。
本稿では,視覚的に検出可能な属性を自動的に収集することを提案する。属性と画像のセマンティック・視覚的類似性を記述することで,クラスごとの属性を予測する。
論文 参考訳(メタデータ) (2024-02-03T09:18:49Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - TransZero++: Cross Attribute-Guided Transformer for Zero-Shot Learning [119.43299939907685]
ゼロショット学習(ZSL)は、目に見えるクラスから目に見えないクラスに意味的知識を移すことによって、新しいクラス認識問題に取り組む。
既存の注意に基づくモデルは、一方向の注意のみを用いることで、単一の画像で劣る領域の特徴を学習するのに苦労している。
視覚的特徴を洗練し,属性の正確なローカライゼーションを学習するために,TransZero++と呼ばれるクロス属性誘導型トランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-16T05:49:51Z) - TransZero: Attribute-guided Transformer for Zero-Shot Learning [25.55614833575993]
ゼロショット学習(ZSL)は、目に見えるクラスから目に見えないクラスに意味的知識を移すことによって、新しいクラスを認識することを目的としている。
本稿では,属性誘導型トランスフォーマーネットワークであるTransZeroを提案する。
論文 参考訳(メタデータ) (2021-12-03T02:39:59Z) - Discriminative Region-based Multi-Label Zero-Shot Learning [145.0952336375342]
マルチラベルゼロショット学習(Multi-label zero-shot Learning、ZSL)は、標準のシングルラベルZSLのより現実的な対位法である。
本稿では,地域別識別可能性保存型ZSLに対する代替アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-20T17:56:47Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。