論文の概要: Decorating Your Own Bedroom: Locally Controlling Image Generation with
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2105.08222v1
- Date: Tue, 18 May 2021 01:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 13:53:17.148154
- Title: Decorating Your Own Bedroom: Locally Controlling Image Generation with
Generative Adversarial Networks
- Title(参考訳): 自分の寝室を飾る: 生成的広告ネットワークによるローカルな画像生成
- Authors: Chen Zhang, Yinghao Xu, Yujun Shen
- Abstract要約: 出力画像のローカル編集を支援するために、LoGANと呼ばれる効果的なアプローチを提案します。
部屋内の個々のオブジェクトをシームレスに削除、挿入、シフト、回転することが可能です。
我々の方法は部屋を完全に取り除き、それをカスタマイズされた家具やスタイルで再現することができる。
- 参考スコア(独自算出の注目度): 15.253043666814413
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative Adversarial Networks (GANs) have made great success in
synthesizing high-quality images. However, how to steer the generation process
of a well-trained GAN model and customize the output image is much less
explored. It has been recently found that modulating the input latent code used
in GANs can reasonably alter some variation factors in the output image, but
such manipulation usually presents to change the entire image as a whole. In
this work, we propose an effective approach, termed as LoGAN, to support local
editing of the output image. Concretely, we introduce two operators, i.e.,
content modulation and style modulation, together with a priority mask to
facilitate the precise control of the intermediate generative features. Taking
bedroom synthesis as an instance, we are able to seamlessly remove, insert,
shift, and rotate the individual objects inside a room. Furthermore, our method
can completely clear out a room and then refurnish it with customized furniture
and styles. Experimental results show the great potentials of steering the
image generation of pre-trained GANs for versatile image editing.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は高品質な画像の合成に成功している。
しかし、十分に訓練されたGANモデルの生成過程を制御し、出力イメージをカスタマイズする方法は、明らかにされていない。
GANで使用される入力潜時符号の変調は、出力画像の変動係数を合理的に変更できることが最近発見されたが、そのような操作は通常、画像全体を変更するために現れる。
本研究では,出力画像のローカル編集をサポートするためのloganと呼ばれる効果的な手法を提案する。
具体的には,コンテンツ変調とスタイル変調の2つの演算子を優先マスクとともに導入し,中間生成特性の正確な制御を容易にする。
寝室の合成を例にとれば、部屋内の個々のオブジェクトをシームレスに削除、挿入、シフト、回転することが可能です。
さらに, 部屋を完全に取り除き, 家具やスタイルをカスタマイズして再調合することができる。
実験結果から,多目的画像編集のための事前学習されたGANの画像生成を操る大きな可能性を示した。
関連論文リスト
- Generating Compositional Scenes via Text-to-image RGBA Instance Generation [82.63805151691024]
テキストから画像への拡散生成モデルは、退屈な急進的なエンジニアリングを犠牲にして高品質な画像を生成することができる。
本稿では, 粒度制御, 柔軟性, 相互作用性を考慮した新しい多段階生成パラダイムを提案する。
実験の結果,RGBA拡散モデルでは,オブジェクト属性を正確に制御した多種多様な高品質なインスタンスを生成できることがわかった。
論文 参考訳(メタデータ) (2024-11-16T23:44:14Z) - Streamlining Image Editing with Layered Diffusion Brushes [8.738398948669609]
我々のシステムは、ハイエンドの消費者向けGPUを使用して、140ミリ秒以内の512x512画像に1回の編集を行う。
提案手法は,オブジェクト属性の調整,エラー訂正,逐次的なプロンプトベースのオブジェクト配置と操作など,さまざまなタスクに対して有効性を示す。
論文 参考訳(メタデータ) (2024-05-01T04:30:03Z) - Latent Space Editing in Transformer-Based Flow Matching [53.75073756305241]
Flow Matching with a transformer backboneはスケーラブルで高品質な生成モデリングの可能性を秘めている。
編集スペースである$u$-spaceを導入し、制御可能で、蓄積可能で、構成可能な方法で操作できる。
最後に,テキストプロンプトを用いた微粒でニュアンスな編集を実現するための,単純かつ強力な手法を提案する。
論文 参考訳(メタデータ) (2023-12-17T21:49:59Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - Gradient Adjusting Networks for Domain Inversion [82.72289618025084]
StyleGAN2はセマンティック編集をサポートする強力な画像生成エンジンであることが実証された。
本稿では,画像毎の最適化手法を提案する。この手法は,生成元の重みを局所的に編集できるように,StyleGAN2ジェネレータをチューニングする。
我々の実験は、この非常にアクティブな領域における最先端技術よりも大きなパフォーマンス差を示している。
論文 参考訳(メタデータ) (2023-02-22T14:47:57Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Paint by Example: Exemplar-based Image Editing with Diffusion Models [35.84464684227222]
本稿では,より精密な制御のための画像編集について検討する。
我々は、この目標を達成するために、自己指導型トレーニングを活用して、ソースイメージとインスペクタをアンタングルし、再編成する。
提案手法は印象的な性能を実現し,高忠実度で画像の編集を制御できることを実証する。
論文 参考訳(メタデータ) (2022-11-23T18:59:52Z) - SemanticStyleGAN: Learning Compositional Generative Priors for
Controllable Image Synthesis and Editing [35.02841064647306]
StyleGANは、画像合成と編集の下流タスクに有望な事前モデルを提供する。
本稿では,ジェネレータが局所的な意味部分を個別にモデル化し,構成的に画像を合成するように訓練されるSemanticStyleGANを提案する。
論文 参考訳(メタデータ) (2021-12-04T04:17:11Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Navigating the GAN Parameter Space for Semantic Image Editing [35.622710993417456]
Generative Adversarial Networks (GAN) はビジュアル編集に必須のツールである。
本稿では,StyleGAN2のような最先端のモデルで実現可能な視覚効果の範囲を大きく広げる。
論文 参考訳(メタデータ) (2020-11-27T15:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。