論文の概要: Unsupervised Discovery of Disentangled Manifolds in GANs
- arxiv url: http://arxiv.org/abs/2011.11842v2
- Date: Sun, 29 Nov 2020 18:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:20:14.403328
- Title: Unsupervised Discovery of Disentangled Manifolds in GANs
- Title(参考訳): GANにおける異方性マニフォールドの無監督発見
- Authors: Yu-Ding Lu, Hsin-Ying Lee, Hung-Yu Tseng, Ming-Hsuan Yang
- Abstract要約: 解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
- 参考スコア(独自算出の注目度): 74.24771216154105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As recent generative models can generate photo-realistic images, people seek
to understand the mechanism behind the generation process. Interpretable
generation process is beneficial to various image editing applications. In this
work, we propose a framework to discover interpretable directions in the latent
space given arbitrary pre-trained generative adversarial networks. We propose
to learn the transformation from prior one-hot vectors representing different
attributes to the latent space used by pre-trained models. Furthermore, we
apply a centroid loss function to improve consistency and smoothness while
traversing through different directions. We demonstrate the efficacy of the
proposed framework on a wide range of datasets. The discovered direction
vectors are shown to be visually corresponding to various distinct attributes
and thus enable attribute editing.
- Abstract(参考訳): 最近の生成モデルはフォトリアリスティックな画像を生成することができるため、人々は生成プロセスの背後にあるメカニズムを理解しようとします。
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本研究では,任意の事前学習された生成対向ネットワークが与えられた潜在空間における解釈可能な方向を見つけるための枠組みを提案する。
本稿では, 先行学習モデルを用いて, 異なる属性を表す1ホットベクトルから潜在空間への変換について述べる。
さらに, 異なる方向を横断しながら, 一貫性と滑らかさを向上させるために, 遠心損失関数を適用した。
提案するフレームワークの幅広いデータセットに対する有効性を示す。
検出された方向ベクトルは、様々な異なる属性に視覚的に対応し、属性編集を可能にする。
関連論文リスト
- Varying Manifolds in Diffusion: From Time-varying Geometries to Visual Saliency [25.632973225129728]
前方拡散過程と逆生成過程が多様体上の一連の分布を構成する拡散モデルの幾何学的性質について検討する。
生成速度は画像成分の視覚的明瞭度などの直感的な視覚特性と高い相関性を示す。
本稿では,画像成分の生成速度を時間とともに推定し,生成曲線を導出する効率的かつ微分可能な手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T07:32:41Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Latent Transformations via NeuralODEs for GAN-based Image Editing [25.272389610447856]
トレーニング可能なNeural ODEのフローとして実現された非線形潜時符号操作は、多くの実用的な非顔画像領域にとって有益であることを示す。
特に、既知の属性を持つ多数のデータセットを調査し、ある属性操作が線形シフトのみで取得することが困難であることを実証する。
論文 参考訳(メタデータ) (2021-11-29T18:59:54Z) - Finding an Unsupervised Image Segmenter in Each of Your Deep Generative
Models [92.92095626286223]
我々は,前景・後景画像分離に繋がる方向を求める自動手順を開発した。
これらの方向を用いて、人間の監督なしに画像分割モデルを訓練する。
論文 参考訳(メタデータ) (2021-05-17T19:34:24Z) - Diamond in the rough: Improving image realism by traversing the GAN
latent space [0.0]
改良されたフォトリアリズムと整合する潜在空間の方向を求める教師なし手法を提案する。
提案手法は,生成画像の忠実度を高めつつ,ネットワークを不変にしておく。
私たちは、イメージ空間の最小の変化をもたらす潜在空間の方向を見つけるために、単純なジェネレータインバージョンを使用します。
論文 参考訳(メタデータ) (2021-04-12T14:45:29Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Network Bending: Expressive Manipulation of Deep Generative Models [0.2062593640149624]
ネットワーク曲げと呼ばれる深層生成モデルを操作するための新しいフレームワークを提案する。
生成過程において意味論的に意味のある側面を直接操作できるだけでなく、幅広い表現的な結果を得ることができるかを示す。
論文 参考訳(メタデータ) (2020-05-25T21:48:45Z) - Controlling generative models with continuous factors of variations [1.7188280334580197]
生成モデルの潜在空間において有意な方向を求める新しい手法を提案する。
提案手法は人間のアノテーションを必要とせず,生成した画像の単純な変換をコードする方向探索に適している。
論文 参考訳(メタデータ) (2020-01-28T10:04:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。