論文の概要: Implicit and Explicit Attention for Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2110.00860v1
- Date: Sat, 2 Oct 2021 18:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:34:08.980093
- Title: Implicit and Explicit Attention for Zero-Shot Learning
- Title(参考訳): ゼロショット学習における暗黙と明示的注意
- Authors: Faisal Alamri and Anjan Dutta
- Abstract要約: ゼロショット学習(ZSL)モデルにおけるバイアス問題に対処するための暗黙的かつ明示的な注意機構を提案する。
我々は、AWA2、CUB、SUNの3つの人気のあるベンチマークで包括的な実験を行う。
- 参考スコア(独自算出の注目度): 11.66422653137002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the existing Zero-Shot Learning (ZSL) methods focus on learning a
compatibility function between the image representation and class attributes.
Few others concentrate on learning image representation combining local and
global features. However, the existing approaches still fail to address the
bias issue towards the seen classes. In this paper, we propose implicit and
explicit attention mechanisms to address the existing bias problem in ZSL
models. We formulate the implicit attention mechanism with a self-supervised
image angle rotation task, which focuses on specific image features aiding to
solve the task. The explicit attention mechanism is composed with the
consideration of a multi-headed self-attention mechanism via Vision Transformer
model, which learns to map image features to semantic space during the training
stage. We conduct comprehensive experiments on three popular benchmarks: AWA2,
CUB and SUN. The performance of our proposed attention mechanisms has proved
its effectiveness, and has achieved the state-of-the-art harmonic mean on all
the three datasets.
- Abstract(参考訳): 既存のZSL(Zero-Shot Learning)メソッドのほとんどは、画像表現とクラス属性の互換性関数の学習に重点を置いている。
局所的特徴とグローバル的特徴を組み合わせた画像表現の学習に集中する人はほとんどいない。
しかし、既存のアプローチは、見たクラスに対するバイアスの問題にまだ対処できない。
本稿では,ZSLモデルにおける既存のバイアス問題に対処するための暗黙的かつ明示的な注意機構を提案する。
我々は,課題解決を支援する特定の画像特徴に着目した自己教師付き画像角度回転タスクを用いて暗黙的注意機構を定式化する。
この明示的な注意機構は、訓練段階で画像の特徴を意味空間にマッピングすることを学ぶ視覚トランスフォーマーモデルによる多元的自己注意機構を考慮に入れて構成される。
AWA2, CUB, SUNの3つのベンチマークについて総合的な実験を行った。
提案する注意機構の性能は,その効果を証明し,これら3つのデータセットすべてにおいて,最先端の調和平均を達成している。
関連論文リスト
- Cross-Image Attention for Zero-Shot Appearance Transfer [68.43651329067393]
画像間の意味的対応を暗黙的に確立するクロスイメージアテンション機構を導入する。
ノイズの多い潜在コードを操作する3つのメカニズムと、デノナイジングプロセスを通してモデルの内部表現を利用する。
実験により,本手法は多種多様な対象カテゴリに対して有効であり,形状,大きさ,視点の変動に頑健であることが示された。
論文 参考訳(メタデータ) (2023-11-06T18:33:24Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - SACANet: scene-aware class attention network for semantic segmentation
of remote sensing images [4.124381172041927]
リモートセンシング画像のセマンティックセグメンテーションのためのシーン認識クラスアテンションネットワーク(SACANet)を提案する。
3つのデータセットの実験結果は、SACANetが他の最先端の手法より優れ、その有効性を検証することを示している。
論文 参考訳(メタデータ) (2023-04-22T14:54:31Z) - DUET: Cross-modal Semantic Grounding for Contrastive Zero-shot Learning [37.48292304239107]
本稿では, DUET という変換器を用いたエンドツーエンドZSL手法を提案する。
画像からセマンティック属性を分離するモデルの能力を調べるために,モーダルなセマンティックグラウンドネットワークを開発した。
DUETは、しばしば最先端のパフォーマンスを達成することができ、そのコンポーネントは有効であり、予測は解釈可能である。
論文 参考訳(メタデータ) (2022-07-04T11:12:12Z) - Dual Cross-Attention Learning for Fine-Grained Visual Categorization and
Object Re-Identification [19.957957963417414]
本稿では,自己意図学習と協調する2つのクロスアテンション学習(DCAL)アルゴリズムを提案する。
まず,グローバル・ローカル・クロスアテンション(GLCA)を提案する。
第2に、画像ペア間の相互作用を確立するために、ペアワイズ・クロスアテンション(PWCA)を提案する。
論文 参考訳(メタデータ) (2022-05-04T16:14:26Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - Multi-Head Self-Attention via Vision Transformer for Zero-Shot Learning [11.66422653137002]
本稿では,ゼロショット学習の課題設定における注意に基づくモデルを提案し,未知のクラス認識に有用な属性を学習する。
本手法では,視覚変換器に適応したアテンション機構を用いて,画像から小さなパッチに分割することで識別属性をキャプチャし,学習する。
論文 参考訳(メタデータ) (2021-07-30T19:08:44Z) - All the attention you need: Global-local, spatial-channel attention for
image retrieval [11.150896867058902]
大規模インスタンスレベルの画像検索のための表現学習に対処する。
バックボーンネットワークの端に付加されるグローバルローカルアテンションモジュール(GLAM)について述べる。
我々は,特徴テンソルを新たに獲得し,空間プーリングにより画像検索のための強力な埋め込みを学習する。
論文 参考訳(メタデータ) (2021-07-16T16:39:13Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。