論文の概要: Simple and effective localized attribute representations for zero-shot
learning
- arxiv url: http://arxiv.org/abs/2006.05938v3
- Date: Tue, 9 Mar 2021 09:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 06:00:27.727451
- Title: Simple and effective localized attribute representations for zero-shot
learning
- Title(参考訳): ゼロショット学習のための単純かつ効果的な局所化属性表現
- Authors: Shiqi Yang, Kai Wang, Luis Herranz, Joost van de Weijer
- Abstract要約: Zero-shot Learning (ZSL) は、目に見えないクラスとイメージを区別することを目的としている。
本稿では,意味/属性空間における局所化表現を提案する。
提案手法は,ゼロショット学習のための新しいベースラインとして利用することができる。
- 参考スコア(独自算出の注目度): 48.053204004771665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) aims to discriminate images from unseen classes by
exploiting relations to seen classes via their semantic descriptions. Some
recent papers have shown the importance of localized features together with
fine-tuning the feature extractor to obtain discriminative and transferable
features. However, these methods require complex attention or part detection
modules to perform explicit localization in the visual space. In contrast, in
this paper we propose localizing representations in the semantic/attribute
space, with a simple but effective pipeline where localization is implicit.
Focusing on attribute representations, we show that our method obtains
state-of-the-art performance on CUB and SUN datasets, and also achieves
competitive results on AWA2 dataset, outperforming generally more complex
methods with explicit localization in the visual space. Our method can be
implemented easily, which can be used as a new baseline for zero shot-learning.
In addition, our localized representations are highly interpretable as
attribute-specific heatmaps.
- Abstract(参考訳): Zero-shot Learning (ZSL) は、目に見えないクラスとイメージを区別することを目的としている。
最近の論文では、特徴抽出器の微調整とともに局所的特徴の重要性を示し、識別可能かつ伝達可能な特徴を得た。
しかし、これらの方法は視覚空間において明示的な局所化を行うために複雑な注意または部分検出モジュールを必要とする。
対照的に,本稿では,局所化が暗黙的に行われる単純なパイプラインを用いて,意味・属性空間における局所化表現を提案する。
属性表現に着目して,本手法はCUBおよびSUNデータセット上での最先端性能と,AWA2データセット上での競合性を実現し,視覚空間における明示的な局所化を伴うより複雑な手法よりも優れていることを示す。
本手法は,ゼロショット学習のための新しいベースラインとして使用できるため,容易に実装できる。
さらに、ローカライズされた表現は属性固有のヒートマップとして解釈可能である。
関連論文リスト
- Attribute-Aware Representation Rectification for Generalized Zero-Shot
Learning [19.65026043141699]
一般化ゼロショット学習(GZSL)は、一連の非バイアスの視覚-セマンティックマッピングを設計することによって、顕著な性能を得た。
本稿では,GZSLに対して,$mathbf(AR)2$という簡易かつ効果的な属性認識表現フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T11:30:32Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Region Semantically Aligned Network for Zero-Shot Learning [18.18665627472823]
本研究では、未確認クラスの局所的特徴をそれらの意味属性にマッピングする地域意味ネットワーク(RSAN)を提案する。
出力の特定の領域から各属性を取得し、これらの属性を認識に活用する。
いくつかの標準ZSLデータセットの実験では、提案したRSAN法の利点が示され、最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-10-14T03:23:40Z) - On Implicit Attribute Localization for Generalized Zero-Shot Learning [43.61533666141709]
一般的なZSLバックボーンは属性を暗黙的にローカライズできるが、このプロパティは利用されない。
次に、属性のローカリゼーションをさらに促進し、非常に競争力のある一般化ZSL(GZSL)パフォーマンスを実現するシンプルな方法であるSELARを提案します。
論文 参考訳(メタデータ) (2021-03-08T12:31:37Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。