論文の概要: Editing in Style: Uncovering the Local Semantics of GANs
- arxiv url: http://arxiv.org/abs/2004.14367v2
- Date: Thu, 21 May 2020 13:01:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:07:08.600418
- Title: Editing in Style: Uncovering the Local Semantics of GANs
- Title(参考訳): スタイルで編集する: GANのローカルセマンティクスを明らかにする
- Authors: Edo Collins, Raja Bala, Bob Price, Sabine S\"usstrunk
- Abstract要約: 目的の出力画像に対して,局所的,意味的に認識された編集をシンプルかつ効果的に行う方法を提案する。
これは、スタイルベクトルの新たな操作を通じて、ソースイメージ、同じくGAN出力から要素を借りることによって達成される。
我々は,本手法で作成した編集の局所性と光リアリズムを測定し,その両方を達成できることを見出した。
- 参考スコア(独自算出の注目度): 6.342949222955067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the quality of GAN image synthesis has improved tremendously in recent
years, our ability to control and condition the output is still limited.
Focusing on StyleGAN, we introduce a simple and effective method for making
local, semantically-aware edits to a target output image. This is accomplished
by borrowing elements from a source image, also a GAN output, via a novel
manipulation of style vectors. Our method requires neither supervision from an
external model, nor involves complex spatial morphing operations. Instead, it
relies on the emergent disentanglement of semantic objects that is learned by
StyleGAN during its training. Semantic editing is demonstrated on GANs
producing human faces, indoor scenes, cats, and cars. We measure the locality
and photorealism of the edits produced by our method, and find that it
accomplishes both.
- Abstract(参考訳): 近年,GAN画像合成の品質は飛躍的に向上しているが,出力の制御と条件付けは依然として限られている。
スタイルガンに着目して,局所的,意味的に認識可能な編集を目的とする出力画像に対して簡易かつ効果的な方法を提案する。
これは、スタイルベクトルの新たな操作を通じて、ソースイメージ、同じくGAN出力から要素を借りることによって達成される。
本手法では,外部モデルからの監視も複雑な空間変形操作も必要としない。
代わりに、トレーニング中にスタイルガンによって学習される意味オブジェクトの創発的な乱れに依存する。
意味的な編集は、人間の顔、屋内シーン、猫、車を作るガンで示される。
本手法で生成した編集の局所性とフォトリアリズムを測定し,両者が達成できることを見出す。
関連論文リスト
- DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - ZONE: Zero-Shot Instruction-Guided Local Editing [56.56213730578504]
ゼロショットインストラクションを用いた局所画像編集手法ZONEを提案する。
InstructPix2Pixを通してユーザが提供する命令から特定の画像編集領域に変換する。
次に,オフザシェルフセグメントモデルから正確な画像層抽出を行う領域IoU方式を提案する。
論文 参考訳(メタデータ) (2023-12-28T02:54:34Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Video2StyleGAN: Disentangling Local and Global Variations in a Video [68.70889857355678]
StyleGANは、顔編集の強力なパラダイムとして登場し、年齢、表現、照明などに対する混乱したコントロールを提供する。
我々は,対象画像の同一性において,運転映像の局所的およびグローバル的位置と表現を再現するために,対象画像と運転映像を撮影するVideo2StyleGANを紹介する。
論文 参考訳(メタデータ) (2022-05-27T14:18:19Z) - FEAT: Face Editing with Attention [70.89233432407305]
StyleGAN ジェネレータ上に構築し,顔の操作を意図した領域に集中させる手法を提案する。
編集された画像の生成中、アテンションマップは、元の特徴と修正された特徴とのブレンドをガイドするマスクとして機能する。
論文 参考訳(メタデータ) (2022-02-06T06:07:34Z) - Perceptually Validated Precise Local Editing for Facial Action Units
with StyleGAN [3.8149289266694466]
顔のセマンティックな操作に広く用いられているStyleGANに基づくソリューションを構築した。
そこで本研究では,潜在空間における編集を行うための単純な戦略が,特定のアクションユニット間の不要な結合をもたらすことを示す。
23名の被験者による知覚実験により局所的編集法の有効性を検証した。
論文 参考訳(メタデータ) (2021-07-26T12:21:37Z) - Decorating Your Own Bedroom: Locally Controlling Image Generation with
Generative Adversarial Networks [15.253043666814413]
出力画像のローカル編集を支援するために、LoGANと呼ばれる効果的なアプローチを提案します。
部屋内の個々のオブジェクトをシームレスに削除、挿入、シフト、回転することが可能です。
我々の方法は部屋を完全に取り除き、それをカスタマイズされた家具やスタイルで再現することができる。
論文 参考訳(メタデータ) (2021-05-18T01:31:49Z) - PIE: Portrait Image Embedding for Semantic Control [82.69061225574774]
本稿では,StyleGANの潜在空間に実際の肖像画を埋め込むための最初のアプローチを提案する。
トレーニング済みのニューラルネットワークであるStyleRigは、3D形態素顔モデルの制御空間をGANの潜在空間にマッピングする。
アイデンティティエネルギー保存用語は、顔の整合性を維持しながら空間的コヒーレントな編集を可能にする。
論文 参考訳(メタデータ) (2020-09-20T17:53:51Z) - StyleGAN2 Distillation for Feed-forward Image Manipulation [5.5080625617632]
StyleGAN2は、現実的な画像を生成する最先端のネットワークである。
本稿では,StyleGAN2の特定の画像操作を,ペア方式で訓練した画像間ネットワークに蒸留する方法を提案する。
論文 参考訳(メタデータ) (2020-03-07T14:02:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。