論文の概要: Editing Out-of-domain GAN Inversion via Differential Activations
- arxiv url: http://arxiv.org/abs/2207.08134v1
- Date: Sun, 17 Jul 2022 10:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 17:22:58.651883
- Title: Editing Out-of-domain GAN Inversion via Differential Activations
- Title(参考訳): ディファレンシャルアクティベーションによるドメイン外GAN変換の編集
- Authors: Haorui Song, Yong Du, Tianyi Xiang, Junyu Dong, Jing Qin, Shengfeng He
- Abstract要約: 本稿では,構成分解パラダイムを用いて,ドメイン外反転問題に対処する新しいGAN事前編集フレームワークを提案する。
生成されたDiff-CAMマスクの助けを借りて、粗い再構成を直感的に元の画像と編集された画像で合成することができる。
また, 分解段階において, 粗い再構成から最終微編集画像を切り離すための, GAN 以前のデゴーストネットワークを提示する。
- 参考スコア(独自算出の注目度): 56.62964029959131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the demonstrated editing capacity in the latent space of a pretrained
GAN model, inverting real-world images is stuck in a dilemma that the
reconstruction cannot be faithful to the original input. The main reason for
this is that the distributions between training and real-world data are
misaligned, and because of that, it is unstable of GAN inversion for real image
editing. In this paper, we propose a novel GAN prior based editing framework to
tackle the out-of-domain inversion problem with a composition-decomposition
paradigm. In particular, during the phase of composition, we introduce a
differential activation module for detecting semantic changes from a global
perspective, \ie, the relative gap between the features of edited and unedited
images. With the aid of the generated Diff-CAM mask, a coarse reconstruction
can intuitively be composited by the paired original and edited images. In this
way, the attribute-irrelevant regions can be survived in almost whole, while
the quality of such an intermediate result is still limited by an unavoidable
ghosting effect. Consequently, in the decomposition phase, we further present a
GAN prior based deghosting network for separating the final fine edited image
from the coarse reconstruction. Extensive experiments exhibit superiorities
over the state-of-the-art methods, in terms of qualitative and quantitative
evaluations. The robustness and flexibility of our method is also validated on
both scenarios of single attribute and multi-attribute manipulations.
- Abstract(参考訳): 事前訓練されたGANモデルの潜在空間における編集能力が実証されているにもかかわらず、実際の画像の反転は、元の入力に忠実に再現できないというジレンマに収まる。
この主な理由は、トレーニングデータと実世界のデータの分布が一致していないため、実際の画像編集におけるGANの逆変換が不安定である。
本稿では,構成分解パラダイムを用いて,ドメイン外反転問題に対処する新しいGAN事前編集フレームワークを提案する。
特に,合成の段階では,編集画像と未編集画像の特徴間の相対的ギャップである<ie>から意味的変化を検出するための微分活性化モジュールを導入する。
生成されたDiff-CAMマスクの助けを借りて、粗い再構成を直感的に元の画像と編集された画像で合成することができる。
このように、属性非関連領域はほぼ全体が生き残ることができるが、そのような中間結果の品質は避けられないゴースト効果によって制限される。
これにより、分解段階において、最終的な微細編集画像を粗い再構成から分離するganプリエントベースデガホストネットワークを更に提示する。
広範な実験は、質的および定量的評価の観点から、最先端の手法よりも優れていることを示している。
本手法のロバスト性と柔軟性は,単一属性操作と複数属性操作の両方のシナリオでも検証できる。
関連論文リスト
- Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - Tuning-Free Inversion-Enhanced Control for Consistent Image Editing [44.311286151669464]
我々は、チューニング不要なインバージョン強化制御(TIC)と呼ばれる新しいアプローチを提案する。
TICは、インバージョンプロセスとサンプリングプロセスの特徴を相関付け、DDIM再構成の不整合を軽減する。
また、インバージョンと単純なDDIM編集プロセスの両方の内容を組み合わせたマスク誘導型アテンション結合戦略を提案する。
論文 参考訳(メタデータ) (2023-12-22T11:13:22Z) - Spatial-Contextual Discrepancy Information Compensation for GAN
Inversion [67.21442893265973]
空間的不一致情報補償に基づく新しいGAN-inversion法(SDIC)を提案する。
SDICは、オリジナルの画像と再構成/編集された画像との間の画像詳細のギャップを埋める。
提案手法は,画像インバージョンと編集作業の両方において,高速な推論速度で優れた歪み適応性トレードオフを実現する。
論文 参考訳(メタデータ) (2023-12-12T08:58:56Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - RIGID: Recurrent GAN Inversion and Editing of Real Face Videos [73.97520691413006]
GANのインバージョンは、実画像に強力な編集可能性を適用するのに不可欠である。
既存のビデオフレームを個別に反転させる手法は、時間の経過とともに望ましくない一貫性のない結果をもたらすことが多い。
我々は、textbfRecurrent vtextbfIdeo textbfGAN textbfInversion and etextbfDiting (RIGID) という統合されたリカレントフレームワークを提案する。
本フレームワークは,入力フレーム間の固有コヒーレンスをエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2023-08-11T12:17:24Z) - In-N-Out: Faithful 3D GAN Inversion with Volumetric Decomposition for Face Editing [28.790900756506833]
3D対応のGANは、2D対応の編集機能を保ちながら、ビュー合成のための新しい機能を提供する。
GANインバージョンは、入力画像や動画を再構成する潜時コードを求める重要なステップであり、この潜時コードを操作することで様々な編集タスクを可能にする。
我々は3次元GANの入力からOODオブジェクトを明示的にモデル化することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:59:56Z) - ReGANIE: Rectifying GAN Inversion Errors for Accurate Real Image Editing [20.39792009151017]
StyleGANは、セマンティックリッチな潜在スタイル空間を操作することで、生成した画像の柔軟で妥当な編集を可能にする。
実際の画像をその潜在空間に投影することは、反転品質と編集性の間に固有のトレードオフに遭遇する。
本稿では,2つの異なるネットワークをそれぞれ編集と再構築に用い,新しい2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-31T04:38:42Z) - High-Fidelity GAN Inversion for Image Attribute Editing [61.966946442222735]
本稿では,画像固有の詳細をよく保存した属性編集を可能にする,GAN(High-fidelity Generative Adversarial Network)インバージョンフレームワークを提案する。
低ビットレートの遅延符号では、再構成された画像や編集された画像の高忠実度の詳細を保存することは困難である。
高忠実度復元のための基準として歪みマップを用いる歪みコンサルテーション手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T11:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。