論文の概要: WeditGAN: Few-Shot Image Generation via Latent Space Relocation
- arxiv url: http://arxiv.org/abs/2305.06671v3
- Date: Sun, 14 Jan 2024 12:01:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:58:43.766899
- Title: WeditGAN: Few-Shot Image Generation via Latent Space Relocation
- Title(参考訳): WeditGAN: ラテント・スペース・リロケーションによる画像生成
- Authors: Yuxuan Duan, Li Niu, Yan Hong, Liqing Zhang
- Abstract要約: WeditGANは、StyleGANの中間潜在コード$w$を学習定数オフセットで編集することで、モデル転送を実現する。
WeditGANの変種も提案する。
広く使われているソース/ターゲットデータセットのコレクションの実験は、現実的で多様な画像を生成するWeditGANの能力を示している。
- 参考スコア(独自算出の注目度): 35.04701629539588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In few-shot image generation, directly training GAN models on just a handful
of images faces the risk of overfitting. A popular solution is to transfer the
models pretrained on large source domains to small target ones. In this work,
we introduce WeditGAN, which realizes model transfer by editing the
intermediate latent codes $w$ in StyleGANs with learned constant offsets
($\Delta w$), discovering and constructing target latent spaces via simply
relocating the distribution of source latent spaces. The established one-to-one
mapping between latent spaces can naturally prevents mode collapse and
overfitting. Besides, we also propose variants of WeditGAN to further enhance
the relocation process by regularizing the direction or finetuning the
intensity of $\Delta w$. Experiments on a collection of widely used
source/target datasets manifest the capability of WeditGAN in generating
realistic and diverse images, which is simple yet highly effective in the
research area of few-shot image generation. Codes are available at
https://github.com/Ldhlwh/WeditGAN.
- Abstract(参考訳): 少数の画像生成では、少数の画像上でGANモデルを直接訓練することは、過度に適合するリスクに直面している。
一般的な解決策は、大きなソースドメインで事前訓練されたモデルを小さなターゲットに転送することである。
本研究はWeditGANを導入し、StyleGANの中間潜伏符号$w$を学習定数オフセット($\Delta w$)で編集し、ソース潜伏空間の分布を単純に移動させることで、目標潜伏空間を発見し、構築することでモデル転送を実現する。
潜在空間間の1対1マッピングが確立されると、自然にモードの崩壊やオーバーフィットを防止できる。
さらに,方向を定式化したり,$\delta w$ の強度を微調整することにより,再配置プロセスをさらに強化するために,weditgan の変種も提案する。
広く使われているソース/ターゲットデータセットの集合に関する実験では、現実的で多様な画像を生成するためのweditganの能力が示されている。
コードはhttps://github.com/ldhlwh/weditganで入手できる。
関連論文リスト
- In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - High-fidelity GAN Inversion with Padding Space [38.9258619444968]
GAN(Generative Adversarial Network)の反転は、事前訓練されたジェネレータを用いた幅広い画像編集作業を容易にする。
既存の手法では、通常、反転空間としてGANの潜伏空間を用いるが、空間詳細の回復は不十分である。
本稿では, 潜伏空間を空間情報で補うため, ジェネレータのパディング空間を包含することを提案する。
論文 参考訳(メタデータ) (2022-03-21T16:32:12Z) - Few Shot Generative Model Adaption via Relaxed Spatial Structural
Alignment [130.84010267004803]
限られたデータでGAN(Generative Adversarial Network)を訓練することは難しい課題である。
実現可能な解決策は、大規模なソースドメインで十分に訓練されたGANから始め、ターゲットドメインにいくつかのサンプルで適応することである。
本研究では,適応時の対象生成モデルのキャリブレーションを行うための緩和された空間構造アライメント手法を提案する。
論文 参考訳(メタデータ) (2022-03-06T14:26:25Z) - GAN Inversion for Out-of-Range Images with Geometric Transformations [22.914126221037222]
我々は、アウト・オブ・レンジ画像のセマンティック編集のための新しいGAN変換手法であるBDInvertを提案する。
実験の結果,BDInvertは幾何学的変換によるアウト・オブ・レンジ画像のセマンティックな編集を効果的にサポートすることがわかった。
論文 参考訳(メタデータ) (2021-08-20T04:38:40Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。