論文の概要: CIZSL++: Creativity Inspired Generative Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2101.00173v2
- Date: Wed, 17 Feb 2021 09:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 13:05:53.701679
- Title: CIZSL++: Creativity Inspired Generative Zero-Shot Learning
- Title(参考訳): CIZSL++: 創造性に触発されたゼロショット学習
- Authors: Mohamed Elhoseiny, Kai Yi, Mohamed Elfeki
- Abstract要約: 我々は,人間の創造性の心理学から着想を得て,目立たないカテゴリの視覚学習プロセスをモデル化し,新しい芸術を創造する。
我々は,幻覚的なクラス記述で未知の空間を探索するクリエイティビティ文学に触発された学習信号を紹介する。
ノイズのあるテキストから一般化されたZSLの課題において、CIZSLの損失は生成的ZSLモデルを改善することができることを示す。
- 参考スコア(独自算出の注目度): 26.772588222573074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot learning (ZSL) aims at understanding unseen categories with no
training examples from class-level descriptions. To improve the discriminative
power of ZSL, we model the visual learning process of unseen categories with
inspiration from the psychology of human creativity for producing novel art.
First, we propose CIZSL-v1 as a creativity inspired model for generative ZSL.
We relate ZSL to human creativity by observing that ZSL is about recognizing
the unseen, and creativity is about creating a likable unseen. We introduce a
learning signal inspired by creativity literature that explores the unseen
space with hallucinated class-descriptions and encourages careful deviation of
their visual feature generations from seen classes while allowing knowledge
transfer from seen to unseen classes. Second, CIZSL-v2 is proposed as an
improved version of CIZSL-v1 for generative zero-shot learning. CIZSL-v2
consists of an investigation of additional inductive losses for unseen classes
along with a semantic guided discriminator. Empirically, we show consistently
that CIZSL losses can improve generative ZSL models on the challenging task of
generalized ZSL from a noisy text on CUB and NABirds datasets. We also show the
advantage of our approach to Attribute-based ZSL on AwA2, aPY, and SUN
datasets. We also show that CIZSL-v2 has improved performance compared to
CIZSL-v1.
- Abstract(参考訳): ゼロショット学習(ZSL)は、クラスレベルの記述からトレーニング例のない未確認カテゴリを理解することを目的としている。
zslの識別能力を向上させるために,人間の創造性心理学から着想を得て,目立たないカテゴリの視覚学習プロセスをモデル化し,新しい芸術を創造する。
まず,CIZSL-v1を創造的ZSLモデルとして提案する。
ZSLと人間の創造性は、ZSLが目に見えないものを認識することであり、創造性は目に見えないものを創造することである。
創造性に触発された学習信号を導入し,視覚的特徴世代を視覚的特徴世代から視覚的特徴世代へ慎重に逸脱させながら,見知らぬクラスへの知識伝達を可能にした。
第二に、CIZSL-v2はゼロショット学習のためのCIZSL-v1の改良版として提案されている。
CIZSL-v2は、目に見えないクラスに対する追加の帰納的損失と、セマンティックガイド付き判別器による研究からなる。
CUBおよびNABirdsデータセット上のノイズの多いテキストから一般化ZSLの課題において、CIZSLの損失が生成ZSLモデルを改善することを実証的に示す。
また、AwA2、aPY、SUNデータセット上でのAttributeベースのZSLに対するアプローチの利点を示す。
また,CIZSL-v2はCIZSL-v1と比較して性能が向上した。
関連論文リスト
- Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - How Robust are Discriminatively Trained Zero-Shot Learning Models? [9.62543698736491]
画像劣化に対する識別的ZSLのロバスト性に関する新しい解析法を提案する。
SUN-C, CUB-C, AWA2-Cの最初のZSL破壊堅牢性データセットをリリースする。
論文 参考訳(メタデータ) (2022-01-26T14:41:10Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Imaginative Walks: Generative Random Walk Deviation Loss for Improved
Unseen Learning Representation [20.380131262905575]
探索されていない視覚空間の学習表現を改善するために,GRaWDと呼ばれる生成モデルに対する新たな損失を提案する。
generative zsl は目に見えないカテゴリを識別することを目的としている。
私達の実験および人間研究は私達の損失が様式GAN1および様式GAN2生成の質を改善できることを示します。
論文 参考訳(メタデータ) (2021-04-20T04:34:28Z) - Learning without Seeing nor Knowing: Towards Open Zero-Shot Learning [27.283748476678117]
一般化されたゼロショット学習(GZSL)では、クラス埋め込みを利用して見えないカテゴリを予測することができる。
オープンワールド設定に向けてGZSLを拡張するために,Open Zero-Shot Learning (OZSL)を提案する。
我々はOZSLを、未知のカテゴリのインスタンスを拒否しながら、見知らぬクラスを認識できる問題として定式化する。
論文 参考訳(メタデータ) (2021-03-23T10:30:50Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - Generalized Continual Zero-Shot Learning [7.097782028036196]
ゼロショット学習(ZSL)は、クラス記述に基づいて、見知らぬクラスから見つからないクラスに知識を移すことによって、目に見えないクラスを分類することを目的としている。
本稿では,タスクの形式でクラスが順次到着するZSLについて,より汎用的で実用的な設定を提案する。
我々は、知識蒸留と、それ以前のタスクからの少数のサンプルの保存と再生を、小さなエピソードメモリを用いて行っている。
論文 参考訳(メタデータ) (2020-11-17T08:47:54Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。