論文の概要: StyleGenes: Discrete and Efficient Latent Distributions for GANs
- arxiv url: http://arxiv.org/abs/2305.00599v1
- Date: Sun, 30 Apr 2023 23:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 14:30:12.310447
- Title: StyleGenes: Discrete and Efficient Latent Distributions for GANs
- Title(参考訳): StyleGenes: GANの離散かつ効率的な遅延分布
- Authors: Evangelos Ntavelis, Mohamad Shahbazi, Iason Kastanis, Radu Timofte,
Martin Danelljan, Luc Van Gool
- Abstract要約: GAN(Generative Adversarial Networks)のための離散潜在分布を提案する。
連続的な先行点から潜在ベクトルを描く代わりに、学習可能な潜在点の有限集合からサンプリングする。
私たちは生物の情報のエンコーディングからインスピレーションを得ます。
- 参考スコア(独自算出の注目度): 149.0290830305808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a discrete latent distribution for Generative Adversarial Networks
(GANs). Instead of drawing latent vectors from a continuous prior, we sample
from a finite set of learnable latents. However, a direct parametrization of
such a distribution leads to an intractable linear increase in memory in order
to ensure sufficient sample diversity. We address this key issue by taking
inspiration from the encoding of information in biological organisms. Instead
of learning a separate latent vector for each sample, we split the latent space
into a set of genes. For each gene, we train a small bank of gene variants.
Thus, by independently sampling a variant for each gene and combining them into
the final latent vector, our approach can represent a vast number of unique
latent samples from a compact set of learnable parameters. Interestingly, our
gene-inspired latent encoding allows for new and intuitive approaches to
latent-space exploration, enabling conditional sampling from our
unconditionally trained model. Moreover, our approach preserves
state-of-the-art photo-realism while achieving better disentanglement than the
widely-used StyleMapping network.
- Abstract(参考訳): 本稿では,GAN(Generative Adversarial Networks)に対する離散潜在分布を提案する。
連続的な先行点から潜在ベクトルを描く代わりに、学習可能な潜在点の有限集合からサンプリングする。
しかし、そのような分布の直接パラメトリゼーションは十分なサンプルの多様性を確保するために、メモリの難解な線形増加につながる。
我々は,生体内の情報のエンコーディングからインスピレーションを得て,この問題に対処した。
各サンプルについて別の潜在ベクターを学ぶ代わりに、潜在空間を一連の遺伝子に分割する。
各遺伝子について、遺伝子変異の小さなバンクを訓練する。
したがって、各遺伝子に対する変異を独立にサンプリングし、それらを最終潜伏ベクトルに組み合わせることで、学習可能なパラメータのコンパクトな集合から膨大な数の潜伏サンプルを表現できる。
興味深いことに、遺伝子にインスパイアされた潜在性エンコーディングは、潜在空間探索に対する新しい直感的なアプローチを可能にし、条件付き学習モデルから条件付きサンプリングを可能にします。
さらに,本手法は,広範に使用されているStyleMappingネットワークよりも高い歪みを実現しつつ,最先端のフォトリアリズムを保っている。
関連論文リスト
- Generator Born from Classifier [66.56001246096002]
データサンプルに頼ることなく、イメージジェネレータを再構築することを目指している。
本稿では,ネットワークパラメータの収束条件を満たすために,ジェネレータを訓練する新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-05T03:41:17Z) - Diverse Human Motion Prediction via Gumbel-Softmax Sampling from an
Auxiliary Space [34.83587750498361]
多様な人間の動き予測は、観測されたポーズのシーケンスから、複数の将来のポーズシーケンスを予測することを目的としている。
従来のアプローチでは、通常、データの条件分布をモデル化するために深い生成ネットワークを使用し、その後、分布からランダムにサンプル結果を得る。
不均衡なマルチモーダル分布から非常に多様な結果をサンプリングするための新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-07-15T09:03:57Z) - Multi-segment preserving sampling for deep manifold sampler [40.88321000839884]
マルチセグメント保存サンプリングにより、ドメイン固有の知識を直接含めることができる。
我々は、IGHV1-18遺伝子にアノテートされた600万近い重鎖配列上の深い多様体サンプルとGPT-2言語モデルという2つのモデルを訓練する。
サンプルCDR3毎にGPT-2モデルからログ確率スコアを取得し,複数セグメント保存サンプリングが妥当な設計を生成することを示す。
論文 参考訳(メタデータ) (2022-05-09T13:19:41Z) - Multi-level Latent Space Structuring for Generative Control [53.240701050423155]
本稿では,StyleGAN生成アーキテクチャを活用して新たなトランケーション手法を提案する。
我々は、ガウスの学習可能な混合を用いて、StyleGANの拡張中間潜在空間であるW-空間を再生成することを学ぶ。
結果として生じる切り離しスキームは、元の未熟なサンプルをより忠実にし、品質と多様性のトレードオフをより良くする。
論文 参考訳(メタデータ) (2022-02-11T21:26:17Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Relaxed-Responsibility Hierarchical Discrete VAEs [3.976291254896486]
textitRelaxed-Responsibility Vector-Quantisationを導入する。
我々は、様々な標準データセットに対して、最先端のビット/ディミット結果を得る。
論文 参考訳(メタデータ) (2020-07-14T19:10:05Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。