論文の概要: Resolution Dependent GAN Interpolation for Controllable Image Synthesis
Between Domains
- arxiv url: http://arxiv.org/abs/2010.05334v3
- Date: Sat, 21 Nov 2020 14:31:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 14:01:11.842059
- Title: Resolution Dependent GAN Interpolation for Controllable Image Synthesis
Between Domains
- Title(参考訳): 領域間の制御可能な画像合成のための分解能依存gan補間
- Authors: Justin N. M. Pinkney and Doron Adler
- Abstract要約: 本稿では,StyleGANアーキテクチャの生成モデル間を解像度依存的に補間する手法を提案する。
これにより、全く新しい領域から画像を生成し、出力の性質をある程度制御することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: GANs can generate photo-realistic images from the domain of their training
data. However, those wanting to use them for creative purposes often want to
generate imagery from a truly novel domain, a task which GANs are inherently
unable to do. It is also desirable to have a level of control so that there is
a degree of artistic direction rather than purely curation of random results.
Here we present a method for interpolating between generative models of the
StyleGAN architecture in a resolution dependent manner. This allows us to
generate images from an entirely novel domain and do this with a degree of
control over the nature of the output.
- Abstract(参考訳): GANは、トレーニングデータのドメインからフォトリアリスティック画像を生成することができる。
しかし、創造的な目的のためにそれらを使用したい人は、真に新しいドメインから画像を生成することを望んでいます。
また、ランダムな結果を純粋にキュレーションするよりも、芸術的な方向性の度合いがあるように、コントロールのレベルを持つことも望ましい。
本稿では,StyleGANアーキテクチャの生成モデル間を解像度依存的に補間する手法を提案する。
これにより、全く新しいドメインから画像を生成し、出力の性質をある程度制御してこれを行うことができます。
関連論文リスト
- In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Domain Agnostic Image-to-image Translation using Low-Resolution
Conditioning [6.470760375991825]
ドメインが関係するきめ細かい問題に対して,ドメインに依存しないi2i法を提案する。
本稿では、生成モデルを訓練し、関連するソース画像の固有情報を共有する画像を生成する新しいアプローチを提案する。
CelebA-HQ と AFHQ のデータセット上で,視覚的品質の向上を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T19:58:49Z) - Zero-shot Generative Model Adaptation via Image-specific Prompt Learning [41.344908073632986]
CLIP誘導画像合成は、トレーニング済みのソースドメインジェネレータを未確認のターゲットドメインに適応する上で、魅力的な性能を示している。
本稿では,各ソース領域の画像に対して,特定のプロンプトベクトルを学習する画像固有プロンプト学習(IPL)手法を提案する。
IPLは、合成画像の品質と多様性を効果的に改善し、モード崩壊を軽減する。
論文 参考訳(メタデータ) (2023-04-06T14:48:13Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - SemanticStyleGAN: Learning Compositional Generative Priors for
Controllable Image Synthesis and Editing [35.02841064647306]
StyleGANは、画像合成と編集の下流タスクに有望な事前モデルを提供する。
本稿では,ジェネレータが局所的な意味部分を個別にモデル化し,構成的に画像を合成するように訓練されるSemanticStyleGANを提案する。
論文 参考訳(メタデータ) (2021-12-04T04:17:11Z) - StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators [63.85888518950824]
生成モデルを新しいドメインに移行できるテキスト駆動方式を提案する。
自然言語のプロンプトと数分の訓練によって、我々の手法は複数のドメインにまたがってジェネレータを適応させることができることを示す。
論文 参考訳(メタデータ) (2021-08-02T14:46:46Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。