論文の概要: Implicit and Explicit Attention for Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2110.00860v1
- Date: Sat, 2 Oct 2021 18:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:34:08.980093
- Title: Implicit and Explicit Attention for Zero-Shot Learning
- Title(参考訳): ゼロショット学習における暗黙と明示的注意
- Authors: Faisal Alamri and Anjan Dutta
- Abstract要約: ゼロショット学習(ZSL)モデルにおけるバイアス問題に対処するための暗黙的かつ明示的な注意機構を提案する。
我々は、AWA2、CUB、SUNの3つの人気のあるベンチマークで包括的な実験を行う。
- 参考スコア(独自算出の注目度): 11.66422653137002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the existing Zero-Shot Learning (ZSL) methods focus on learning a
compatibility function between the image representation and class attributes.
Few others concentrate on learning image representation combining local and
global features. However, the existing approaches still fail to address the
bias issue towards the seen classes. In this paper, we propose implicit and
explicit attention mechanisms to address the existing bias problem in ZSL
models. We formulate the implicit attention mechanism with a self-supervised
image angle rotation task, which focuses on specific image features aiding to
solve the task. The explicit attention mechanism is composed with the
consideration of a multi-headed self-attention mechanism via Vision Transformer
model, which learns to map image features to semantic space during the training
stage. We conduct comprehensive experiments on three popular benchmarks: AWA2,
CUB and SUN. The performance of our proposed attention mechanisms has proved
its effectiveness, and has achieved the state-of-the-art harmonic mean on all
the three datasets.
- Abstract(参考訳): 既存のZSL(Zero-Shot Learning)メソッドのほとんどは、画像表現とクラス属性の互換性関数の学習に重点を置いている。
局所的特徴とグローバル的特徴を組み合わせた画像表現の学習に集中する人はほとんどいない。
しかし、既存のアプローチは、見たクラスに対するバイアスの問題にまだ対処できない。
本稿では,ZSLモデルにおける既存のバイアス問題に対処するための暗黙的かつ明示的な注意機構を提案する。
我々は,課題解決を支援する特定の画像特徴に着目した自己教師付き画像角度回転タスクを用いて暗黙的注意機構を定式化する。
この明示的な注意機構は、訓練段階で画像の特徴を意味空間にマッピングすることを学ぶ視覚トランスフォーマーモデルによる多元的自己注意機構を考慮に入れて構成される。
AWA2, CUB, SUNの3つのベンチマークについて総合的な実験を行った。
提案する注意機構の性能は,その効果を証明し,これら3つのデータセットすべてにおいて,最先端の調和平均を達成している。
関連論文リスト
- Vision Eagle Attention: A New Lens for Advancing Image Classification [0.8158530638728501]
コンボリューショナルな空間的注意力を用いた視覚的特徴抽出を促進する新しい注意機構であるビジョンイーグル注意(Vision Eagle Attention)を導入する。
このモデルは、局所的な空間的特徴を捉えるために畳み込みを適用し、画像の最も情報性の高い領域を選択的に強調するアテンションマップを生成する。
Vision Eagle Attentionを軽量なResNet-18アーキテクチャに統合しました。
論文 参考訳(メタデータ) (2024-11-15T20:21:59Z) - Dual-Image Enhanced CLIP for Zero-Shot Anomaly Detection [58.228940066769596]
本稿では,統合視覚言語スコアリングシステムを活用したデュアルイメージ強化CLIP手法を提案する。
提案手法は,画像のペアを処理し,それぞれを視覚的参照として利用することにより,視覚的コンテキストによる推論プロセスを強化する。
提案手法は視覚言語による関節異常検出の可能性を大幅に活用し,従来のSOTA法と同等の性能を示す。
論文 参考訳(メタデータ) (2024-05-08T03:13:20Z) - Dual Relation Mining Network for Zero-Shot Learning [48.89161627050706]
本稿では,効果的な視覚・意味的相互作用を実現し,知識伝達のための属性間の意味的関係を学習するためのDual Relation Mining Network(DRMN)を提案する。
具体的には,多層的特徴融合により視覚情報を強化する視覚・意味的関係マイニングのためのデュアルアテンションブロック(DAB)を提案する。
セマンティック・インタラクション・トランスフォーマ(SIT)を用いて画像間の属性表現の一般化を促進する。
論文 参考訳(メタデータ) (2024-05-06T16:31:19Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - SACANet: scene-aware class attention network for semantic segmentation
of remote sensing images [4.124381172041927]
リモートセンシング画像のセマンティックセグメンテーションのためのシーン認識クラスアテンションネットワーク(SACANet)を提案する。
3つのデータセットの実験結果は、SACANetが他の最先端の手法より優れ、その有効性を検証することを示している。
論文 参考訳(メタデータ) (2023-04-22T14:54:31Z) - Dual Cross-Attention Learning for Fine-Grained Visual Categorization and
Object Re-Identification [19.957957963417414]
本稿では,自己意図学習と協調する2つのクロスアテンション学習(DCAL)アルゴリズムを提案する。
まず,グローバル・ローカル・クロスアテンション(GLCA)を提案する。
第2に、画像ペア間の相互作用を確立するために、ペアワイズ・クロスアテンション(PWCA)を提案する。
論文 参考訳(メタデータ) (2022-05-04T16:14:26Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - Multi-Head Self-Attention via Vision Transformer for Zero-Shot Learning [11.66422653137002]
本稿では,ゼロショット学習の課題設定における注意に基づくモデルを提案し,未知のクラス認識に有用な属性を学習する。
本手法では,視覚変換器に適応したアテンション機構を用いて,画像から小さなパッチに分割することで識別属性をキャプチャし,学習する。
論文 参考訳(メタデータ) (2021-07-30T19:08:44Z) - All the attention you need: Global-local, spatial-channel attention for
image retrieval [11.150896867058902]
大規模インスタンスレベルの画像検索のための表現学習に対処する。
バックボーンネットワークの端に付加されるグローバルローカルアテンションモジュール(GLAM)について述べる。
我々は,特徴テンソルを新たに獲得し,空間プーリングにより画像検索のための強力な埋め込みを学習する。
論文 参考訳(メタデータ) (2021-07-16T16:39:13Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。