論文の概要: GANSpace: Discovering Interpretable GAN Controls
- arxiv url: http://arxiv.org/abs/2004.02546v3
- Date: Mon, 14 Dec 2020 10:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:31:47.463332
- Title: GANSpace: Discovering Interpretable GAN Controls
- Title(参考訳): GANSpace: 解釈可能なGANコントロールの発見
- Authors: Erik H\"ark\"onen, Aaron Hertzmann, Jaakko Lehtinen, Sylvain Paris
- Abstract要約: 本稿では,GAN(Generative Adversarial Networks)を解析し,画像合成のための解釈可能な制御を生成する手法について述べる。
我々は,主成分分析(PCA)に基づく重要な潜伏方向を,潜伏空間や特徴空間に適用した上で同定する。
多数の解釈可能な制御が主方向に沿った層方向の摂動によって定義されることを示す。
- 参考スコア(独自算出の注目度): 24.428247009562895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes a simple technique to analyze Generative Adversarial
Networks (GANs) and create interpretable controls for image synthesis, such as
change of viewpoint, aging, lighting, and time of day. We identify important
latent directions based on Principal Components Analysis (PCA) applied either
in latent space or feature space. Then, we show that a large number of
interpretable controls can be defined by layer-wise perturbation along the
principal directions. Moreover, we show that BigGAN can be controlled with
layer-wise inputs in a StyleGAN-like manner. We show results on different GANs
trained on various datasets, and demonstrate good qualitative matches to edit
directions found through earlier supervised approaches.
- Abstract(参考訳): 本稿では,生成逆ネットワーク(gans)を分析し,視点変化,加齢,照明,日時といった画像合成のための解釈可能な制御を行うための簡便な手法について述べる。
我々は,主成分分析(PCA)に基づく重要な潜伏方向を,潜伏空間や特徴空間に適用した上で同定する。
次に, 多数の解釈可能な制御を主方向に沿った階層的摂動によって定義できることを示す。
さらに,BigGANはStyleGANライクな方法で階層的な入力で制御可能であることを示す。
様々なデータセットで訓練された異なるGANについて結果を示し、以前の教師付きアプローチによる方向の編集に優れた質的マッチングを示す。
関連論文リスト
- Discovering Interpretable Directions in the Semantic Latent Space of Diffusion Models [21.173910627285338]
DDM(Denoising Diffusion Models)は、GAN(Generative Adversarial Networks)の強力な競合相手として登場した。
本稿では,h-spaceの特性について検討し,その中に意味のある意味的方向を求めるための新しい手法を提案する。
私たちのアプローチは、アーキテクチャの変更、テキストベースのガイダンス、CLIPベースの最適化、モデル微調整を必要とせずに適用できます。
論文 参考訳(メタデータ) (2023-03-20T12:59:32Z) - Discovering Class-Specific GAN Controls for Semantic Image Synthesis [73.91655061467988]
本稿では,事前訓練されたSISモデルの潜在空間において,空間的に不整合なクラス固有方向を求める新しい手法を提案する。
提案手法によって検出される潜在方向は,セマンティッククラスの局所的な外観を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2022-12-02T21:39:26Z) - Exploring Gradient-based Multi-directional Controls in GANs [19.950198707910587]
本稿では, 非線形制御の発見手法を提案する。
提案手法は,多方向・多方向特性の多種多様な属性に対してきめ細かな制御が可能であり,現状の手法よりもはるかに優れた非絡み合いを実現する能力を示す。
論文 参考訳(メタデータ) (2022-09-01T19:10:26Z) - PandA: Unsupervised Learning of Parts and Appearances in the Feature
Maps of GANs [34.145110544546114]
本研究では,空間的部分を表す因子とその外観を,完全に教師なしの方法で共同で発見するアーキテクチャに依存しないアプローチを提案する。
我々の手法は訓練時間の観点からはるかに効率的であり、最も重要なのは、より正確な局所制御を提供することである。
論文 参考訳(メタデータ) (2022-05-31T18:28:39Z) - Fantastic Style Channels and Where to Find Them: A Submodular Framework
for Discovering Diverse Directions in GANs [0.0]
StyleGAN2は、リッチでゆがみのある潜在空間のために、様々な画像生成および操作タスクを可能にした。
そこで我々は,StyleGAN2の潜在空間において,最も代表的で多様な方向のサブセットを見つけるための,新しいサブモジュラー・フレームワークを設計する。
本フレームワークは,クラスタの概念を用いて多様性を促進し,グリーディ最適化方式で効率的に解ける。
論文 参考訳(メタデータ) (2022-03-16T10:35:41Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。