論文の概要: EigenGAN: Layer-Wise Eigen-Learning for GANs
- arxiv url: http://arxiv.org/abs/2104.12476v1
- Date: Mon, 26 Apr 2021 11:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:58:20.834884
- Title: EigenGAN: Layer-Wise Eigen-Learning for GANs
- Title(参考訳): EigenGAN: GANのためのレイヤワイズ固有学習
- Authors: Zhenliang He, Meina Kan, Shiguang Shan
- Abstract要約: EigenGANは、異なる発電機層から解釈可能で制御可能な寸法を無監督にマイニングすることができます。
特定の固有次元の係数をトラバースすることで、ジェネレータは特定の意味属性に対応する連続的な変化を伴うサンプルを生成することができる。
- 参考スコア(独自算出の注目度): 84.33920839885619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on Generative Adversarial Network (GAN) reveal that different
layers of a generative CNN hold different semantics of the synthesized images.
However, few GAN models have explicit dimensions to control the semantic
attributes represented in a specific layer. This paper proposes EigenGAN which
is able to unsupervisedly mine interpretable and controllable dimensions from
different generator layers. Specifically, EigenGAN embeds one linear subspace
with orthogonal basis into each generator layer. Via the adversarial training
to learn a target distribution, these layer-wise subspaces automatically
discover a set of "eigen-dimensions" at each layer corresponding to a set of
semantic attributes or interpretable variations. By traversing the coefficient
of a specific eigen-dimension, the generator can produce samples with
continuous changes corresponding to a specific semantic attribute. Taking the
human face for example, EigenGAN can discover controllable dimensions for
high-level concepts such as pose and gender in the subspace of deep layers, as
well as low-level concepts such as hue and color in the subspace of shallow
layers. Moreover, under the linear circumstance, we theoretically prove that
our algorithm derives the principal components as PCA does. Codes can be found
in https://github.com/LynnHo/EigenGAN-Tensorflow.
- Abstract(参考訳): GAN(Generative Adversarial Network)の最近の研究は、生成CNNの異なる層が合成画像の異なる意味を持つことを示した。
しかし、特定の層に表される意味的属性を制御するために明示的な次元を持つGANモデルはほとんどない。
本稿では,異なるジェネレータ層から解釈可能な次元と制御可能な次元を教師なしでマイニングできるEigenGANを提案する。
具体的には、EigenGANは各ジェネレータ層に直交基底を持つ1つの線型部分空間を埋め込む。
対象の分布を学ぶための敵対的訓練を通じて、これらの階層的部分空間は、意味属性のセットや解釈可能なバリエーションに対応する各層で「固有次元」の集合を自動的に発見する。
特定の固有次元の係数をトラバースすることで、ジェネレータは特定の意味属性に対応する連続的な変化を伴うサンプルを生成することができる。
例えば、人間の顔を使って、EigenGANは深層の部分空間におけるポーズやジェンダーのような高レベルの概念や、浅い層の部分空間における色や色といった低レベルの概念の制御可能な次元を発見できる。
さらに,線形状況下では,PCAのようにアルゴリズムが主成分を導出することを理論的に証明する。
コードはhttps://github.com/LynnHo/EigenGAN-Tensorflowにある。
関連論文リスト
- SC2GAN: Rethinking Entanglement by Self-correcting Correlated GAN Space [16.040942072859075]
ある属性の編集方向に従う遺伝子ネットワークは、他の属性と絡み合った変更をもたらす可能性がある。
本稿では,低密度の潜伏コードサンプルを元の潜伏空間に再プロジェクションすることで,SC$2$GANのアンタングル化を実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-10T14:42:32Z) - Householder Projector for Unsupervised Latent Semantics Discovery [58.92485745195358]
Householder Projectorは、画像の忠実さを犠牲にすることなく、StyleGANがより複雑で正確なセマンティック属性を見つけるのに役立つ。
プロジェクタを事前訓練したStyleGAN2/StyleGAN3に統合し、複数のベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2023-07-16T11:43:04Z) - Analyzing the Latent Space of GAN through Local Dimension Estimation [4.688163910878411]
高忠実度画像合成におけるスタイルベースGAN(StyleGAN)は、それらの潜在空間の意味的特性を理解するために研究の動機となっている。
事前学習したGANモデルにおける任意の中間層に対する局所次元推定アルゴリズムを提案する。
提案した計量はDistortionと呼ばれ、学習された潜在空間上の内在空間の不整合を測定する。
論文 参考訳(メタデータ) (2022-05-26T06:36:06Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - Layer-Wise Interpretation of Deep Neural Networks Using Identity
Initialization [3.708656266586146]
本稿では, 深い多層パーセプトロンの解釈法を提案する。
提案手法では,各隠れ層における分類と分類可能性に対する各ニューロンの寄与度を解析できる。
論文 参考訳(メタデータ) (2021-02-26T07:15:41Z) - The Geometry of Deep Generative Image Models and its Applications [0.0]
generative adversarial networks (gans) は、実世界のデータセットの統計パターンをモデル化する強力な教師なし手法として登場した。
これらのネットワークは、潜在空間内のランダムな入力を学習データを表す新しいサンプルにマップするように訓練される。
潜在空間の構造は、その高い寸法性と発電機の非線形性のために内挿しが困難である。
論文 参考訳(メタデータ) (2021-01-15T07:57:33Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。