論文の概要: Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2007.09549v1
- Date: Sun, 19 Jul 2020 01:25:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 23:58:29.034925
- Title: Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning
- Title(参考訳): ゼロショット学習における意味的関係の活用
- Authors: Maunil R Vyas, Hemanth Venkateswara, Sethuraman Panchanathan
- Abstract要約: 新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
- 参考スコア(独自算出の注目度): 14.277015352910674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot learning (ZSL) addresses the unseen class recognition problem by
leveraging semantic information to transfer knowledge from seen classes to
unseen classes. Generative models synthesize the unseen visual features and
convert ZSL into a classical supervised learning problem. These generative
models are trained using the seen classes and are expected to implicitly
transfer the knowledge from seen to unseen classes. However, their performance
is stymied by overfitting, which leads to substandard performance on
Generalized Zero-Shot learning (GZSL). To address this concern, we propose the
novel LsrGAN, a generative model that Leverages the Semantic Relationship
between seen and unseen categories and explicitly performs knowledge transfer
by incorporating a novel Semantic Regularized Loss (SR-Loss). The SR-loss
guides the LsrGAN to generate visual features that mirror the semantic
relationships between seen and unseen classes. Experiments on seven benchmark
datasets, including the challenging Wikipedia text-based CUB and NABirds
splits, and Attribute-based AWA, CUB, and SUN, demonstrates the superiority of
the LsrGAN compared to previous state-of-the-art approaches under both ZSL and
GZSL. Code is available at https: // github. com/ Maunil/ LsrGAN
- Abstract(参考訳): ゼロショット学習(ZSL)は、目に見えないクラスから見えないクラスに知識を伝達するために意味情報を活用することで、目に見えないクラス認識の問題に対処する。
生成モデルは、見えない視覚特徴を合成し、ZSLを古典的な教師付き学習問題に変換する。
これらの生成モデルは、見たクラスを使ってトレーニングされ、見えないクラスから見えないクラスに暗黙的に知識を転送することが期待されます。
しかし、それらの性能はオーバーフィッティングによって損なわれ、一般化ゼロショット学習(GZSL)のサブスタンダード性能に繋がる。
そこで本研究では,目に見えるカテゴリと見当たらないカテゴリのセマンティクス関係を活用し,新しいセマンティクス正規化損失(sr-loss)を組み込んだ知識伝達を明示的に行う生成モデルであるlsrganを提案する。
SR-lossはLsrGANをガイドし、目に見えるクラスと目に見えないクラスのセマンティックな関係を反映する視覚的特徴を生成する。
ウィキペディアのテキストベースのCUBとNABirdsの分割、AttributeベースのAWA、CUB、SUNを含む7つのベンチマークデータセットの実験は、ZSLとGZSLの従来の最先端アプローチと比較して、LsrGANの優位性を示している。
コードはhttps: // githubで入手できる。
com/Maunil/LsrGAN
関連論文リスト
- Prompting Language-Informed Distribution for Compositional Zero-Shot Learning [73.49852821602057]
合成ゼロショット学習(CZSL)タスクは、目に見えない合成視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - Disentangled Ontology Embedding for Zero-shot Learning [39.014714187825646]
知識グラフ(KG)とその変種オントロジーは知識表現に広く用いられており、ゼロショット学習(ZSL)の増強に非常に有効であることが示されている。
KGsを利用する既存のZSL法は、KGsで表されるクラス間関係の複雑さを全て無視する。
本稿では,ZSLの拡張に焦点をあて,意味的特性によって導かれる絡み合ったオントロジーの埋め込みを学習することを提案する。
また、生成モデルとグラフ伝搬モデルに基づく2つの新しいZSLソリューションを含む、DOZSLという新しいZSLフレームワークをコントリビュートする。
論文 参考訳(メタデータ) (2022-06-08T08:29:30Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Zero-shot Learning with Class Description Regularization [10.739164530098755]
生成型ZSLモデルに対して,各カテゴリの記述により多くの注意を払うことを促す,新たな正規化形式を導入する。
実験結果から, 一般化ゼロショット認識・分類の課題において, 複数の最先端モデルの性能向上を実証した。
論文 参考訳(メタデータ) (2021-06-30T14:56:15Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - Cross Knowledge-based Generative Zero-Shot Learning Approach with
Taxonomy Regularization [5.280368849852332]
我々は、Cross Knowledge Learning(CKL)スキームとTaxonomy Regularization(TR)を採用したネットワークベースのZSLアプローチを開発する。
CKLは、ZSLにセマンティックとビジュアルの機能を埋め込むための、より関連性の高いセマンティック機能をトレーニングできる。
TRは、生成ネットワークから生成されるより一般化された視覚特徴を持つ見えない画像との交差を著しく改善する。
論文 参考訳(メタデータ) (2021-01-25T04:38:18Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。