論文の概要: One-shot domain adaptation for semantic face editing of real world
images using StyleALAE
- arxiv url: http://arxiv.org/abs/2108.13876v1
- Date: Tue, 31 Aug 2021 14:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 19:00:31.790755
- Title: One-shot domain adaptation for semantic face editing of real world
images using StyleALAE
- Title(参考訳): StyleALAEを用いた実世界の画像のセマンティック顔編集のためのワンショットドメイン適応
- Authors: Ravi Kiran Reddy, Kumar Shubham, Gopalakrishnan Venkatesh, Sriram
Gandikota, Sarthak Khoche, Dinesh Babu Jayagopi, Gopalakrishnan
Srinivasaraghavan
- Abstract要約: styleALAEは遅延空間ベースのオートエンコーダで、高品質のフォトリアリスティック画像を生成することができる。
我々の研究は、再構成された画像の同一性が与えられた入力画像と同じであることを保証します。
さらに、事前訓練されたスタイルALAEモデルの潜在空間を用いて、再構成画像に対する意味的な修正を生成する。
- 参考スコア(独自算出の注目度): 7.541747299649292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic face editing of real world facial images is an important application
of generative models. Recently, multiple works have explored possible
techniques to generate such modifications using the latent structure of
pre-trained GAN models. However, such approaches often require training an
encoder network and that is typically a time-consuming and resource intensive
process. A possible alternative to such a GAN-based architecture can be
styleALAE, a latent-space based autoencoder that can generate photo-realistic
images of high quality. Unfortunately, the reconstructed image in styleALAE
does not preserve the identity of the input facial image. This limits the
application of styleALAE for semantic face editing of images with known
identities. In our work, we use a recent advancement in one-shot domain
adaptation to address this problem. Our work ensures that the identity of the
reconstructed image is the same as the given input image. We further generate
semantic modifications over the reconstructed image by using the latent space
of the pre-trained styleALAE model. Results show that our approach can generate
semantic modifications on any real world facial image while preserving the
identity.
- Abstract(参考訳): 実世界の顔画像のセマンティック顔編集は、生成モデルの重要な応用である。
近年,事前学習したGANモデルの潜伏構造を用いて,このような修正を可能にする技術が複数研究されている。
しかし、そのようなアプローチはエンコーダネットワークのトレーニングを必要とすることが多く、通常は時間を要するリソース集約的なプロセスである。
このようなGANベースのアーキテクチャの代替として,高品質なフォトリアリスティック画像を生成する潜在空間ベースのオートエンコーダであるstyleALAE がある。
残念ながら、styleALAEの再構成画像は入力された顔画像の同一性を保存していない。
これは、既知のアイデンティティを持つ画像の意味的な顔編集に対するstylealaeの適用を制限する。
我々の研究では、この問題に対処するために、最近のワンショットドメイン適応の進歩を使用します。
本研究は、再構成画像の同一性が入力画像と同一であることを保証する。
さらに,事前学習型ALAEモデルの潜在空間を用いて,再構成画像に対する意味的修飾を生成する。
その結果,本手法は同一性を維持しつつ,任意の実世界の顔画像に対して意味的修正を生成できることがわかった。
関連論文リスト
- Semantic Image Synthesis via Class-Adaptive Cross-Attention [7.147779225315707]
SPADEの代わりにクロスアテンション層を用いて形状型相関を学習し、画像生成プロセスの条件付けを行う。
我々のモデルはSPADEの汎用性を継承し、同時に最先端の世代品質を得るとともに、グローバルおよびローカルスタイルの転送を改善する。
論文 参考訳(メタデータ) (2023-08-30T14:49:34Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - Semantics-Guided Object Removal for Facial Images: with Broad
Applicability and Robust Style Preservation [29.162655333387452]
顔画像における物体の除去と画像の塗布は、顔画像を妨げる物体を特に標的にし、除去し、適切に再構成された顔画像に置き換えるタスクである。
U-netと変調ジェネレータを利用する2つの異なるアプローチは、それぞれに固有の利点があるが、それぞれの手法の固有の欠点にもかかわらず、このタスクに対して広く支持されている。
本稿では,SGIN(Semantics-Guided Inpainting Network)を提案する。
論文 参考訳(メタデータ) (2022-09-29T00:09:12Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。