論文の概要: Force-in-domain GAN inversion
- arxiv url: http://arxiv.org/abs/2107.06050v2
- Date: Wed, 14 Jul 2021 01:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 11:18:20.934960
- Title: Force-in-domain GAN inversion
- Title(参考訳): Force-in-domain GAN インバージョン
- Authors: Guangjie Leng, Yekun Zhu and Zhi-Qin John Xu
- Abstract要約: 画像生成の訓練を受けると、GAN(Generative Adversarial Networks)の潜在領域に様々な意味が現れる。
ドメイン内GANインバージョンアプローチは、最近、潜伏空間内の逆コードを制限するために提案されている。
本稿では,ドメイン内GANに基づくフォースインドメインGANを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Empirical works suggest that various semantics emerge in the latent space of
Generative Adversarial Networks (GANs) when being trained to generate images.
To perform real image editing, it requires an accurate mapping from the real
image to the latent space to leveraging these learned semantics, which is
important yet difficult. An in-domain GAN inversion approach is recently
proposed to constraint the inverted code within the latent space by forcing the
reconstructed image obtained from the inverted code within the real image
space. Empirically, we find that the inverted code by the in-domain GAN can
deviate from the latent space significantly. To solve this problem, we propose
a force-in-domain GAN based on the in-domain GAN, which utilizes a
discriminator to force the inverted code within the latent space. The
force-in-domain GAN can also be interpreted by a cycle-GAN with slight
modification. Extensive experiments show that our force-in-domain GAN not only
reconstructs the target image at the pixel level, but also align the inverted
code with the latent space well for semantic editing.
- Abstract(参考訳): 実証研究は、画像生成の訓練を受ける際に、GAN(Generative Adversarial Networks)の潜在領域に様々な意味が現れることを示唆している。
実際の画像編集を行うには、これらの学習されたセマンティクスを活用するために、実際の画像から潜在空間への正確なマッピングが必要である。
実画像空間内の反転符号から得られた再構成画像を強制することで、潜伏空間内の反転符号を制約するドメイン内GANインバージョン手法が最近提案されている。
経験的に、ドメイン内GANによる反転コードは、潜在空間から著しく逸脱することができる。
そこで,この問題を解決するために,判別器を用いて潜在空間内に可逆コードを強制する,ドメイン内ganに基づくパワーインドメインganを提案する。
ドメイン内のフォースガンは、少し修正したサイクルGANでも解釈できる。
広範にわたる実験により,我々の領域内GANは,対象画像を画素レベルで再構成するだけでなく,逆コードと潜在空間との整合性も示している。
関連論文リスト
- In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - Editing Out-of-domain GAN Inversion via Differential Activations [56.62964029959131]
本稿では,構成分解パラダイムを用いて,ドメイン外反転問題に対処する新しいGAN事前編集フレームワークを提案する。
生成されたDiff-CAMマスクの助けを借りて、粗い再構成を直感的に元の画像と編集された画像で合成することができる。
また, 分解段階において, 粗い再構成から最終微編集画像を切り離すための, GAN 以前のデゴーストネットワークを提示する。
論文 参考訳(メタデータ) (2022-07-17T10:34:58Z) - GAN Inversion for Out-of-Range Images with Geometric Transformations [22.914126221037222]
我々は、アウト・オブ・レンジ画像のセマンティック編集のための新しいGAN変換手法であるBDInvertを提案する。
実験の結果,BDInvertは幾何学的変換によるアウト・オブ・レンジ画像のセマンティックな編集を効果的にサポートすることがわかった。
論文 参考訳(メタデータ) (2021-08-20T04:38:40Z) - GAN Inversion: A Survey [125.62848237531945]
GANインバージョンは、与えられたイメージを事前に訓練されたGANモデルの潜在空間に戻すことを目的としている。
GANインバージョンは、StyleGANやBigGANなどの事前トレーニングされたGANモデルを実際の画像編集アプリケーションに使用できるようにする上で重要な役割を果たします。
論文 参考訳(メタデータ) (2021-01-14T14:11:00Z) - Positional Encoding as Spatial Inductive Bias in GANs [97.6622154941448]
SinGANは限られた有効な受容器分野にもかかわらず内部パッチ配分の学習の印象的な機能を示します。
本研究では,発電機のパディングゼロ時における暗黙的位置符号化によって,このような能力が大幅にもたらされることを示した。
本稿では,新しいマルチスケール学習戦略を提案し,その効果を最新型無条件発電機stylegan2で実証する。
論文 参考訳(メタデータ) (2020-12-09T18:27:16Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z) - In-Domain GAN Inversion for Real Image Editing [56.924323432048304]
トレーニング済みのGANジェネレータに実際のイメージを送出する一般的な方法は、遅延コードに戻すことである。
既存の反転法は、通常、画素値によってターゲット画像の再構成にフォーカスするが、反転したコードは元の潜伏空間のセマンティックドメインに着陸しない。
本稿では、入力画像を忠実に再構成し、変換されたコードが編集に意味のある意味を持つようにするためのドメイン内GAN逆変換手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T18:20:18Z) - Optimizing Generative Adversarial Networks for Image Super Resolution
via Latent Space Regularization [4.529132742139768]
GAN(Generative Adversarial Networks)は、多様体内の実画像の分布を学習し、実際のように見えるサンプルを生成する。
本稿では,これらの問題を教師付きGANに対して緩和する方法を探究する。
論文 参考訳(メタデータ) (2020-01-22T16:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。