論文の概要: Zero-shot Learning with Deep Neural Networks for Object Recognition
- arxiv url: http://arxiv.org/abs/2102.03137v1
- Date: Fri, 5 Feb 2021 12:27:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:40:32.332501
- Title: Zero-shot Learning with Deep Neural Networks for Object Recognition
- Title(参考訳): 物体認識のためのディープニューラルネットワークによるゼロショット学習
- Authors: Yannick Le Cacheux and Herv\'e Le Borgne and Michel Crucianu
- Abstract要約: ゼロショット学習は、視覚的なトレーニングサンプルなしでオブジェクトを認識する能力を扱う。
本章では、ZSL問題に取り組むためのディープニューラルネットワークに基づくアプローチについてレビューする。
- 参考スコア(独自算出の注目度): 8.572654816871873
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Zero-shot learning deals with the ability to recognize objects without any
visual training sample. To counterbalance this lack of visual data, each class
to recognize is associated with a semantic prototype that reflects the
essential features of the object. The general approach is to learn a mapping
from visual data to semantic prototypes, then use it at inference to classify
visual samples from the class prototypes only. Different settings of this
general configuration can be considered depending on the use case of interest,
in particular whether one only wants to classify objects that have not been
employed to learn the mapping or whether one can use unlabelled visual examples
to learn the mapping. This chapter presents a review of the approaches based on
deep neural networks to tackle the ZSL problem. We highlight findings that had
a large impact on the evolution of this domain and list its current challenges.
- Abstract(参考訳): ゼロショット学習は、視覚的なトレーニングサンプルなしでオブジェクトを認識する能力を扱う。
この視覚データの欠如を相殺するために、認識する各クラスは、オブジェクトの本質的な特徴を反映したセマンティックプロトタイプに関連付けられている。
一般的なアプローチは、ビジュアルデータからセマンティックプロトタイプへのマッピングを学び、推論時にそれを使って、クラスプロトタイプからのみ視覚サンプルを分類する。
この一般的な設定の異なる設定は、興味のあるユースケース、特にマッピングを学ぶために使われていないオブジェクトのみを分類したいか、ラベルのない視覚的な例を使ってマッピングを学ぶことができるかによって考慮できる。
この章では、ZSL問題に取り組むためのディープニューラルネットワークに基づくアプローチのレビューを紹介します。
我々は、このドメインの進化に大きな影響を与えた発見を強調し、現在の課題をリストアップする。
関連論文リスト
- Learning Dense Object Descriptors from Multiple Views for Low-shot
Category Generalization [27.583517870047487]
本稿では、カテゴリやセマンティックなオブジェクト部分ラベルを使わずに、オブジェクトインスタンスの複数のビューからトレーニングできるDeep Object Patch rimis(DOPE)を提案する。
DOPEを訓練するために、物体の視界間の画素レベルの対応を得るために、スパースディープ、フォアグラウンドマスク、および既知のカメラへのアクセスを仮定する。
DOPEは, 局所的マッチングを用いて, 新規カテゴリーの低ショット分類に利用でき, 教師付き学習ベースラインや自己教師型学習ベースラインと競合し, 優れることがわかった。
論文 参考訳(メタデータ) (2022-11-28T04:31:53Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Disentangling Visual Embeddings for Attributes and Objects [38.27308243429424]
オブジェクト属性認識における合成ゼロショット学習の問題点について検討する。
以前の作業では、オブジェクト分類のために事前訓練されたバックボーンネットワークで抽出された視覚的特徴を使用する。
視覚空間における属性とオブジェクトの特徴をアンタングルできる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-05-17T17:59:36Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - Learning Semantic Ambiguities for Zero-Shot Learning [0.0]
本稿では,任意の条件生成型ZSL法に適用可能な正規化手法を提案する。
トレーニング時に利用できない意味記述が可能な差別的特徴を合成することを学ぶ。
この手法は、文献でよく用いられる4つのデータセット上で、ZSLとGZSLに対して評価される。
論文 参考訳(メタデータ) (2022-01-05T21:08:29Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot
Learning [85.2093650907943]
機械に新しいカテゴリーを認識させるためのセマンティックガイド注意(SEGA)を提案する。
SEGAは意味的知識を使用して、視覚的特徴に注意を払うべきものについて、トップダウンの方法で視覚的知覚を導く。
セマンティックガイドによる注意は期待された機能を実現し、最先端の結果より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-08T08:03:44Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。