論文の概要: Learning without Seeing nor Knowing: Towards Open Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2103.12437v1
- Date: Tue, 23 Mar 2021 10:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:53:07.675678
- Title: Learning without Seeing nor Knowing: Towards Open Zero-Shot Learning
- Title(参考訳): 見知らぬままの学習:オープンゼロショット学習を目指して
- Authors: Federico Marmoreo, Julio Ivan Davila Carrazco, Vittorio Murino, Jacopo
Cavazza
- Abstract要約: 一般化されたゼロショット学習(GZSL)では、クラス埋め込みを利用して見えないカテゴリを予測することができる。
オープンワールド設定に向けてGZSLを拡張するために,Open Zero-Shot Learning (OZSL)を提案する。
我々はOZSLを、未知のカテゴリのインスタンスを拒否しながら、見知らぬクラスを認識できる問題として定式化する。
- 参考スコア(独自算出の注目度): 27.283748476678117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Generalized Zero-Shot Learning (GZSL), unseen categories (for which no
visual data are available at training time) can be predicted by leveraging
their class embeddings (e.g., a list of attributes describing them) together
with a complementary pool of seen classes (paired with both visual data and
class embeddings). Despite GZSL is arguably challenging, we posit that knowing
in advance the class embeddings, especially for unseen categories, is an actual
limit of the applicability of GZSL towards real-world scenarios. To relax this
assumption, we propose Open Zero-Shot Learning (OZSL) to extend GZSL towards
the open-world settings. We formalize OZSL as the problem of recognizing seen
and unseen classes (as in GZSL) while also rejecting instances from unknown
categories, for which neither visual data nor class embeddings are provided. We
formalize the OZSL problem introducing evaluation protocols, error metrics and
benchmark datasets. We also suggest to tackle the OZSL problem by proposing the
idea of performing unknown feature generation (instead of only unseen features
generation as done in GZSL). We achieve this by optimizing a generative process
to sample unknown class embeddings as complementary to the seen and the unseen.
We intend these results to be the ground to foster future research, extending
the standard closed-world zero-shot learning (GZSL) with the novel open-world
counterpart (OZSL).
- Abstract(参考訳): Generalized Zero-Shot Learning (GZSL)では、クラス埋め込み(例えば、それらを記述する属性のリスト)と補完的なクラスのプール(ビジュアルデータとクラス埋め込みの両方でペアリングされる)を活用することで、目に見えないカテゴリ(トレーニング時に視覚データを利用できない)を予測することができる。
GZSLは間違いなく難しいが、クラス埋め込み、特に目に見えないカテゴリについて事前に知ることは、現実のシナリオに対するGZSLの適用性の実際の限界である、と仮定する。
この仮定を緩和するため、オープンワールド設定に向けてGZSLを拡張するためにOpen Zero-Shot Learning (OZSL)を提案する。
我々はOZSLを(GZSLのように)見知らぬクラスを認識する問題として定式化し、未知のカテゴリからのインスタンスを拒否するが、視覚データやクラス埋め込みは提供されない。
我々は、評価プロトコル、エラーメトリクス、ベンチマークデータセットを導入したOZSL問題を定式化する。
また,未知の特徴生成(GZSLで行われているような未確認特徴生成のみではなく)を行うことにより,OZSL問題に取り組むことを提案する。
未知のクラス埋め込みのサンプル化のために生成プロセスを最適化し、見当たらないものや見当たらないものを補完する。
我々は,これらの成果が今後の研究を促進する基盤となることを目指しており,新しいオープンワールド学習(OZSL)と標準クローズドワールドゼロショット学習(GZSL)を拡張している。
関連論文リスト
- LETS-GZSL: A Latent Embedding Model for Time Series Generalized Zero
Shot Learning [1.4665304971699262]
本稿では,時系列分類(TSC)におけるGZSLの問題を解くために,時系列分類のための遅延埋め込みGZSL(LETS-GZSL)モデルを提案する。
我々のフレームワークは、未確認クラスの数が3より多い場合を除いて、ほとんどのデータセットで少なくとも55%の調和平均値を達成することができる。
論文 参考訳(メタデータ) (2022-07-25T09:31:22Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - Generative Zero-Shot Learning for Semantic Segmentation of 3D Point
Cloud [79.99653758293277]
本稿では,ZSL(Zero-Shot Learning)とGZSL(Generalized ZSL)の両方を3次元データ上に生成する手法を提案する。
インダクティブZSLとインダクティブGZSLの両方に対して,ModelNet40分類における技術状況に到達または向上することを示す。
実験の結果,本手法は強いベースラインよりも優れており,さらに本手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T13:29:27Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Contrastive Embedding for Generalized Zero-Shot Learning [22.050109158293402]
汎用ゼロショット学習(GZSL)は、目に見えないクラスと見えないクラスの両方からオブジェクトを認識することを目的としている。
最近の特徴生成手法は、見当たらないクラスの視覚的特徴を合成できる生成モデルを学ぶ。
本稿では,生成モデルを組込みモデルに統合し,ハイブリッドgzslフレームワークを実現することを提案する。
論文 参考訳(メタデータ) (2021-03-30T08:54:03Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - A Review of Generalized Zero-Shot Learning Methods [31.539434340951786]
汎用ゼロショット学習(GZSL)は、教師付き学習において、いくつかの出力クラスが未知である条件下でデータサンプルを分類するモデルを訓練することを目的としている。
GZSLは、見た(ソース)クラスと見えない(ターゲット)クラスのセマンティック情報を活用して、見えないクラスと見えないクラスのギャップを埋める。
論文 参考訳(メタデータ) (2020-11-17T14:00:30Z) - Generalized Continual Zero-Shot Learning [7.097782028036196]
ゼロショット学習(ZSL)は、クラス記述に基づいて、見知らぬクラスから見つからないクラスに知識を移すことによって、目に見えないクラスを分類することを目的としている。
本稿では,タスクの形式でクラスが順次到着するZSLについて,より汎用的で実用的な設定を提案する。
我々は、知識蒸留と、それ以前のタスクからの少数のサンプルの保存と再生を、小さなエピソードメモリを用いて行っている。
論文 参考訳(メタデータ) (2020-11-17T08:47:54Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。