論文の概要: Shaping Visual Representations with Attributes for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2112.06398v1
- Date: Mon, 13 Dec 2021 03:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 05:43:13.301416
- Title: Shaping Visual Representations with Attributes for Few-Shot Learning
- Title(参考訳): 少数ショット学習のための属性による視覚表現形成
- Authors: Haoxing Chen and Huaxiong Li and Yaohui Li and Chunlin Chen
- Abstract要約: 少ないショット認識は、低データ体制下での新規カテゴリの認識を目的としている。
近年,メートル法に基づく数ショット学習法は有望な性能を達成している。
本稿では,属性型学習(ASL)を提案する。
- 参考スコア(独自算出の注目度): 5.861206243996454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot recognition aims to recognize novel categories under low-data
regimes. Due to the scarcity of images, machines cannot obtain enough effective
information, and the generalization ability of the model is extremely weak. By
using auxiliary semantic modalities, recent metric-learning based few-shot
learning methods have achieved promising performances. However, these methods
only augment the representations of support classes, while query images have no
semantic modalities information to enhance representations. Instead, we propose
attribute-shaped learning (ASL), which can normalize visual representations to
predict attributes for query images. And we further devise an attribute-visual
attention module (AVAM), which utilizes attributes to generate more
discriminative features. Our method enables visual representations to focus on
important regions with attributes guidance. Experiments demonstrate that our
method can achieve competitive results on CUB and SUN benchmarks. Our code is
available at {https://github.com/chenhaoxing/ASL}.
- Abstract(参考訳): 少ないショット認識は、低データ体制下での新規カテゴリの認識を目的としている。
画像の不足のため、機械は十分な有効な情報を得ることができず、モデルの一般化能力は非常に弱い。
補助的セマンティック・モダリティを用いることで、近年のメトリクス学習に基づく数ショット学習法は有望な性能を達成した。
しかし、これらの手法はサポートクラスの表現を補強するだけであり、クエリ画像は表現を強化するための意味的モダリティ情報を持たない。
代わりに属性型学習 (ASL) を提案し, 視覚表現を正規化し, クエリ画像の属性を予測する。
さらに,属性を利用してより識別的な特徴を生成する属性視覚アテンションモジュール (AVAM) を考案する。
本手法は,属性ガイダンスを用いて視覚表現を重要領域に集中させる。
実験により,本手法はCUBおよびSUNベンチマークにおいて競合する結果が得られることが示された。
私たちのコードは、https://github.com/chenhaoxing/ASL}で利用可能です。
関連論文リスト
- High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - Boosting Zero-shot Learning via Contrastive Optimization of Attribute
Representations [28.46906100680767]
画像以外の属性のプロトタイプを明示的に学習することでZSL(Zero-shot Learning)を強化する新しいフレームワークを提案する。
プロトタイプ生成モジュールは属性セマンティクスから属性プロトタイプを生成するように設計されている。
ハードな例に基づくコントラスト最適化スキームを導入し、埋め込み空間における属性レベルの特徴を補強する。
論文 参考訳(メタデータ) (2022-07-08T11:05:35Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Attributes-Guided and Pure-Visual Attention Alignment for Few-Shot
Recognition [27.0842107128122]
属性誘導型アテンションモジュール (AGAM) を設計し, 属性を付加し, より識別的な特徴を学習する。
提案モジュールは,最先端性能を実現するため,単純なメートル法に基づくアプローチを大幅に改善することができる。
論文 参考訳(メタデータ) (2020-09-10T08:38:32Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - Simple and effective localized attribute representations for zero-shot
learning [48.053204004771665]
Zero-shot Learning (ZSL) は、目に見えないクラスとイメージを区別することを目的としている。
本稿では,意味/属性空間における局所化表現を提案する。
提案手法は,ゼロショット学習のための新しいベースラインとして利用することができる。
論文 参考訳(メタデータ) (2020-06-10T16:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。