論文の概要: Learning Semantic Ambiguities for Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2201.01823v1
- Date: Wed, 5 Jan 2022 21:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 15:12:06.351801
- Title: Learning Semantic Ambiguities for Zero-Shot Learning
- Title(参考訳): ゼロショット学習のための意味的曖昧さの学習
- Authors: Celina Hanouti and Herv\'e Le Borgne
- Abstract要約: 本稿では,任意の条件生成型ZSL法に適用可能な正規化手法を提案する。
トレーニング時に利用できない意味記述が可能な差別的特徴を合成することを学ぶ。
この手法は、文献でよく用いられる4つのデータセット上で、ZSLとGZSLに対して評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) aims at recognizing classes for which no visual
sample is available at training time. To address this issue, one can rely on a
semantic description of each class. A typical ZSL model learns a mapping
between the visual samples of seen classes and the corresponding semantic
descriptions, in order to do the same on unseen classes at test time. State of
the art approaches rely on generative models that synthesize visual features
from the prototype of a class, such that a classifier can then be learned in a
supervised manner. However, these approaches are usually biased towards seen
classes whose visual instances are the only one that can be matched to a given
class prototype. We propose a regularization method that can be applied to any
conditional generative-based ZSL method, by leveraging only the semantic class
prototypes. It learns to synthesize discriminative features for possible
semantic description that are not available at training time, that is the
unseen ones. The approach is evaluated for ZSL and GZSL on four datasets
commonly used in the literature, either in inductive and transductive settings,
with results on-par or above state of the art approaches.
- Abstract(参考訳): Zero-shot Learning (ZSL)は、トレーニング時に視覚的なサンプルが利用できないクラスを認識することを目的としている。
この問題に対処するために、各クラスのセマンティック記述に頼ることができる。
典型的なZSLモデルは、テスト時に見えないクラスで同じことをするために、見たクラスのビジュアルサンプルと対応するセマンティック記述の間のマッピングを学習する。
最先端技術アプローチは、クラスのプロトタイプから視覚的特徴を合成する生成モデルに依存しており、分類器を教師付きで学習することができる。
しかしながら、これらのアプローチは通常、視覚的なインスタンスが与えられたクラスのプロトタイプにマッチできる唯一のクラスであるようなクラスに偏っている。
本稿では,任意の条件生成型ZSL法に適用可能な正規化手法を提案する。
それは、訓練時に使用できない可能性のある意味的記述のために、識別的特徴を合成することを学ぶ。
このアプローチは、インダクティブとトランスダクティブのいずれにおいても、文献で一般的に使用される4つのデータセット上でzslとgzslで評価され、その結果は、アートアプローチのほぼあるいはその上で行われる。
関連論文リスト
- Evolving Semantic Prototype Improves Generative Zero-Shot Learning [73.07035277030573]
ゼロショット学習(ZSL)では、生成法は事前に定義されたセマンティックプロトタイプに基づいてクラス関連サンプル特徴を合成する。
各クラスの事前定義されたセマンティックプロトタイプは、実際のセマンティックプロトタイプと正確に一致しない。
本稿では,経験的に定義された意味的プロトタイプと,クラス関連特徴合成のための実際のプロトタイプを整合させる動的意味的プロトタイプ(DSP)法を提案する。
論文 参考訳(メタデータ) (2023-06-12T08:11:06Z) - Prompting Language-Informed Distribution for Compositional Zero-Shot Learning [73.49852821602057]
合成ゼロショット学習(CZSL)タスクは、目に見えない合成視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - Learning Prototype via Placeholder for Zero-shot Recognition [18.204927316433448]
我々は,LPLと呼ばれるプレースホルダーを通じてプロトタイプを学習し,目に見えるクラスと目に見えないクラスのドメインシフトを排除することを提案する。
我々は、プレースホルダーのセマンティックな信頼性を保証するために、新しいセマンティック指向の微調整を利用する。
5つのベンチマークデータセットの実験では、最先端の手法よりもLPLの大幅なパフォーマンス向上が示されている。
論文 参考訳(メタデータ) (2022-07-29T09:56:44Z) - Rich Semantics Improve Few-shot Learning [49.11659525563236]
アノテーションコストを最小限に抑えながら取得できる「クラスレベル」言語記述を用いることで、少ない学習性能を向上できることを示す。
我々は,視覚トークンと意味トークンを関連付けるための前方および後方エンコーディング機構を開発した。
論文 参考訳(メタデータ) (2021-04-26T16:48:27Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - Zero-shot Learning with Deep Neural Networks for Object Recognition [8.572654816871873]
ゼロショット学習は、視覚的なトレーニングサンプルなしでオブジェクトを認識する能力を扱う。
本章では、ZSL問題に取り組むためのディープニューラルネットワークに基づくアプローチについてレビューする。
論文 参考訳(メタデータ) (2021-02-05T12:27:42Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Attribute Propagation Network for Graph Zero-shot Learning [57.68486382473194]
属性伝達ネットワーク (APNet) を導入し, 1) クラス毎に属性ベクトルを生成するグラフ伝搬モデルと, 2) パラメータ化隣人 (NN) 分類器から構成する。
APNetは、2つのゼロショット学習設定と5つのベンチマークデータセットによる実験で、魅力的なパフォーマンスまたは新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-24T16:53:40Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Webly Supervised Semantic Embeddings for Large Scale Zero-Shot Learning [8.472636806304273]
ゼロショット学習(ZSL)は、データセットからクラスの一部に対する視覚的なトレーニングデータがない場合に、画像内のオブジェクト認識を可能にする。
大規模ZSLのための意味クラスプロトタイプ設計の問題に焦点をあてる。
本稿では,写真に付随するノイズの多いテキストメタデータをテキストコレクションとして利用する方法について検討する。
論文 参考訳(メタデータ) (2020-08-06T21:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。