論文の概要: Imaginative Walks: Generative Random Walk Deviation Loss for Improved
Unseen Learning Representation
- arxiv url: http://arxiv.org/abs/2104.09757v1
- Date: Tue, 20 Apr 2021 04:34:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 00:05:54.223795
- Title: Imaginative Walks: Generative Random Walk Deviation Loss for Improved
Unseen Learning Representation
- Title(参考訳): Imaginative Walks: 未知の学習表現を改善するための生成ランダムウォーク逸脱
- Authors: Mohamed Elhoseiny, Divyansh Jha, Kai Yi, Ivan Skorokhodov
- Abstract要約: 探索されていない視覚空間の学習表現を改善するために,GRaWDと呼ばれる生成モデルに対する新たな損失を提案する。
generative zsl は目に見えないカテゴリを識別することを目的としている。
私達の実験および人間研究は私達の損失が様式GAN1および様式GAN2生成の質を改善できることを示します。
- 参考スコア(独自算出の注目度): 20.380131262905575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel loss for generative models, dubbed as GRaWD (Generative
Random Walk Deviation), to improve learning representations of unexplored
visual spaces. Quality learning representation of unseen classes (or styles) is
crucial to facilitate novel image generation and better generative
understanding of unseen visual classes (a.k.a. Zero-Shot Learning, ZSL). By
generating representations of unseen classes from their semantic descriptions,
such as attributes or text, Generative ZSL aims at identifying unseen
categories discriminatively from seen ones. We define GRaWD by constructing a
dynamic graph, including the seen class/style centers and generated samples in
the current mini-batch. Our loss starts a random walk probability from each
center through visual generations produced from hallucinated unseen classes. As
a deviation signal, we encourage the random walk to eventually land after t
steps in a feature representation that is hard to classify to any of the seen
classes. We show that our loss can improve unseen class representation quality
on four text-based ZSL benchmarks on CUB and NABirds datasets and three
attribute-based ZSL benchmarks on AWA2, SUN, and aPY datasets. We also study
our loss's ability to produce meaningful novel visual art generations on
WikiArt dataset. Our experiments and human studies show that our loss can
improve StyleGAN1 and StyleGAN2 generation quality, creating novel art that is
significantly more preferred. Code will be made available.
- Abstract(参考訳): 本稿では,未探索の視覚空間の学習表現を改善するために,grawd (generative random walk deviation) と呼ばれる生成モデルに対する新しい損失を提案する。
目立たないクラス(またはスタイル)の品質学習表現は、新しい画像生成を促進し、目立たない視覚クラスのより優れた生成的理解を促進するために不可欠である。
Zero-Shot Learning, ZSL)。
Generative ZSLは、属性やテキストなどのセマンティック記述から目に見えないクラスの表現を生成することで、目に見えないカテゴリを識別することを目的としている。
我々はGRaWDを定義し、クラス/スタイルセンターと現在のミニバッチで生成されたサンプルを含む動的なグラフを構築する。
私たちの喪失は、幻覚のないクラスから生み出された視覚的世代を通じて、各センターからランダムな歩行確率が始まります。
偏差信号として、ランダムウォークは最終的にtステップの後に、見たどのクラスにも分類が難しい特徴表現に着地することを奨励する。
CUBとNABirdsの4つのテキストベースのZSLベンチマークと、AWA2、SUN、aPYの3つの属性ベースのZSLベンチマークにおいて、この損失によりクラス表現の品質が向上することを示す。
また、ウィキアートデータセット上で意味のある新しいビジュアルアート世代を生成できるロスの能力についても検討した。
実験と人体実験により,StyleGAN1とStyleGAN2の生成品質が向上し,新たな芸術作品がより好まれることがわかった。
コードは利用可能になる。
関連論文リスト
- Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - Zero-shot Learning with Class Description Regularization [10.739164530098755]
生成型ZSLモデルに対して,各カテゴリの記述により多くの注意を払うことを促す,新たな正規化形式を導入する。
実験結果から, 一般化ゼロショット認識・分類の課題において, 複数の最先端モデルの性能向上を実証した。
論文 参考訳(メタデータ) (2021-06-30T14:56:15Z) - Disentangling Semantic-to-visual Confusion for Zero-shot Learning [13.610995960100869]
我々はDCR-GAN(Disentangling Class Representation Generative Adrial Network)と呼ばれる新しいモデルを開発する。
DCR-GANは、歪んだ表現から恩恵を受け、見えない特徴と見えない特徴の両方に対して、より現実的な分布に適合する可能性がある。
提案モデルは,4つのベンチマークデータセット上での最先端モデルよりも優れた性能を実現することができる。
論文 参考訳(メタデータ) (2021-06-16T08:04:11Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Rethinking Generative Zero-Shot Learning: An Ensemble Learning
Perspective for Recognising Visual Patches [52.67723703088284]
我々はMPGAN(Multi-patch Generative Adversarial Nets)と呼ばれる新しいフレームワークを提案する。
MPGANは、新しい重み付き投票戦略で、ローカルパッチ機能とラベルが見えないクラスを合成する。
MPGANは最先端の手法よりもはるかに精度が高い。
論文 参考訳(メタデータ) (2020-07-27T05:49:44Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。