論文の概要: Attribute-Aware Representation Rectification for Generalized Zero-Shot
Learning
- arxiv url: http://arxiv.org/abs/2311.14750v2
- Date: Fri, 1 Dec 2023 15:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 20:58:55.012096
- Title: Attribute-Aware Representation Rectification for Generalized Zero-Shot
Learning
- Title(参考訳): 一般ゼロショット学習のための属性認識型表現法
- Authors: Zhijie Rao, Jingcai Guo, Xiaocheng Lu, Qihua Zhou, Jie Zhang, Kang
Wei, Chenxin Li, Song Guo
- Abstract要約: 一般化ゼロショット学習(GZSL)は、一連の非バイアスの視覚-セマンティックマッピングを設計することによって、顕著な性能を得た。
本稿では,GZSLに対して,$mathbf(AR)2$という簡易かつ効果的な属性認識表現フレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.65026043141699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalized Zero-shot Learning (GZSL) has yielded remarkable performance by
designing a series of unbiased visual-semantics mappings, wherein, the
precision relies heavily on the completeness of extracted visual features from
both seen and unseen classes. However, as a common practice in GZSL, the
pre-trained feature extractor may easily exhibit difficulty in capturing
domain-specific traits of the downstream tasks/datasets to provide fine-grained
discriminative features, i.e., domain bias, which hinders the overall
recognition performance, especially for unseen classes. Recent studies
partially address this issue by fine-tuning feature extractors, while may
inevitably incur catastrophic forgetting and overfitting issues. In this paper,
we propose a simple yet effective Attribute-Aware Representation Rectification
framework for GZSL, dubbed $\mathbf{(AR)^{2}}$, to adaptively rectify the
feature extractor to learn novel features while keeping original valuable
features. Specifically, our method consists of two key components, i.e.,
Unseen-Aware Distillation (UAD) and Attribute-Guided Learning (AGL). During
training, UAD exploits the prior knowledge of attribute texts that are shared
by both seen/unseen classes with attention mechanisms to detect and maintain
unseen class-sensitive visual features in a targeted manner, and meanwhile, AGL
aims to steer the model to focus on valuable features and suppress them to fit
noisy elements in the seen classes by attribute-guided representation learning.
Extensive experiments on various benchmark datasets demonstrate the
effectiveness of our method.
- Abstract(参考訳): 一般化されたゼロショット学習(gzsl)は、一連の偏りのないビジュアル・セマンティクスマッピングを設計し、その精度は目に見えるクラスと見えないクラスの両方から抽出された視覚特徴の完全性に大きく依存している。
しかしながら、gzslにおける一般的な慣例として、事前訓練された特徴抽出器は、下流のタスク/データセットのドメイン固有の特性を捉えるのが容易であり、特に見当たらないクラスにおいて、全体的な認識性能を妨げる、きめ細かい識別機能、すなわちドメインバイアスを提供する。
最近の研究では、微調整された特徴抽出器によって部分的にこの問題に対処しているが、必然的に破滅的な放棄と過剰フィッティングの問題を引き起こす可能性がある。
本稿では,GZSL の簡易かつ効果的な属性認識表現フレームワークである $\mathbf{(AR)^{2}}$ を提案する。
具体的には,UAD (Unseen-Aware Distillation) とAGL (Attribute-Guided Learning) の2つの要素から構成される。
トレーニング中、UDAは、未確認のクラスと未確認のクラスの両方で共有される属性テキストの事前知識を利用して、未確認のクラス感受性の視覚的特徴をターゲットとして検出・維持すると同時に、AGLは、価値ある特徴に焦点を合わせ、属性誘導表現学習により、そのクラスにノイズのある要素を適合させることを抑えることを目的としている。
各種ベンチマークデータセットの大規模な実験により,本手法の有効性が示された。
関連論文リスト
- CREST: Cross-modal Resonance through Evidential Deep Learning for Enhanced Zero-Shot Learning [48.46511584490582]
ゼロショット学習(ZSL)は、既知のカテゴリから未知のカテゴリへのセマンティックな知識伝達を活用することで、新しいクラスの認識を可能にする。
分布不均衡や属性共起といった現実世界の課題は、画像の局所的なばらつきの識別を妨げる。
これらの課題を克服するために、双方向のクロスモーダルZSLアプローチCRESTを提案する。
論文 参考訳(メタデータ) (2024-04-15T10:19:39Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Learning Invariant Visual Representations for Compositional Zero-Shot
Learning [30.472541551048508]
合成ゼロショット学習 (CZSL) は,目に見える対象の合成から学習した知識を用いて,新しい構成を認識することを目的としている。
本稿では,異なる領域を表現レベルと勾配レベルで整列させる不変な特徴学習フレームワークを提案する。
2つのCZSLベンチマーク実験により,提案手法が従来の最先端技術よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-06-01T11:33:33Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。