論文の概要: Learning the Redundancy-free Features for Generalized Zero-Shot Object
Recognition
- arxiv url: http://arxiv.org/abs/2006.08939v2
- Date: Sun, 23 May 2021 06:09:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 18:53:02.447074
- Title: Learning the Redundancy-free Features for Generalized Zero-Shot Object
Recognition
- Title(参考訳): 汎用ゼロショット物体認識のための冗長性のない特徴の学習
- Authors: Zongyan Han, Zhenyong Fu and Jian Yang
- Abstract要約: ゼロショットオブジェクト認識は、意味的関連カテゴリ間でオブジェクト認識能力を伝達することを目的としている。
本稿では,一般化ゼロショット学習のための冗長性のない特徴を学習する。
その結果,我々の冗長性のない特徴に基づく一般化ゼロショット学習(RFF-GZSL)アプローチは,最先端技術と比較して競争力のある結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 28.08885682748527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot object recognition or zero-shot learning aims to transfer the
object recognition ability among the semantically related categories, such as
fine-grained animal or bird species. However, the images of different
fine-grained objects tend to merely exhibit subtle differences in appearance,
which will severely deteriorate zero-shot object recognition. To reduce the
superfluous information in the fine-grained objects, in this paper, we propose
to learn the redundancy-free features for generalized zero-shot learning. We
achieve our motivation by projecting the original visual features into a new
(redundancy-free) feature space and then restricting the statistical dependence
between these two feature spaces. Furthermore, we require the projected
features to keep and even strengthen the category relationship in the
redundancy-free feature space. In this way, we can remove the redundant
information from the visual features without losing the discriminative
information. We extensively evaluate the performance on four benchmark
datasets. The results show that our redundancy-free feature based generalized
zero-shot learning (RFF-GZSL) approach can achieve competitive results compared
with the state-of-the-arts.
- Abstract(参考訳): ゼロショット物体認識(zero-shot object recognition)またはゼロショット学習(zero-shot learning)は、細粒度動物や鳥種といった意味的に関連したカテゴリー間で物体認識能力を伝達することを目的としている。
しかし、異なる微細な物体の画像は外観の微妙な違いを呈しがちであり、ゼロショット物体認識を著しく悪化させる。
本稿では,粒度の細かい物体の超流動情報を削減するため,汎用ゼロショット学習のための冗長性フリーな特徴を学習することを提案する。
我々は、元の視覚的特徴を新しい(冗長のない)特徴空間に投影し、これらの2つの特徴空間間の統計的依存を制限することで、モチベーションを達成する。
さらに、冗長性のない機能空間におけるカテゴリ関係を維持し、強化するために、投影された機能が必要です。
このようにして、識別情報を失うことなく、視覚特徴から冗長情報を除去することができる。
4つのベンチマークデータセットの性能を広範囲に評価した。
その結果,我々の冗長性のない特徴に基づく一般化ゼロショット学習(RFF-GZSL)アプローチは,最先端技術と比較して競争力のある結果が得られることがわかった。
関連論文リスト
- High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - Towards Self-Supervised Learning of Global and Object-Centric
Representations [4.36572039512405]
自己スーパービジョンを用いた構造化対象中心表現の学習における重要な側面について論じる。
CLEVRデータセットに関するいくつかの実験を通じて、私たちの洞察を検証します。
論文 参考訳(メタデータ) (2022-03-11T15:18:47Z) - Intriguing Properties of Contrastive Losses [12.953112189125411]
コントラスト学習の3つの興味深い特性について検討する。
複数のオブジェクトが存在する画像に対して、インスタンスベースのコントラスト学習がうまく学習できるかどうかを検討する。
対照的な学習では、学習しやすい共有機能のいくつかは、競合する機能の集合の学習を抑え、さらに完全に阻止することができる。
論文 参考訳(メタデータ) (2020-11-05T13:19:48Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。