論文の概要: MagGAN: High-Resolution Face Attribute Editing with Mask-Guided
Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2010.01424v1
- Date: Sat, 3 Oct 2020 20:56:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 08:52:11.908671
- Title: MagGAN: High-Resolution Face Attribute Editing with Mask-Guided
Generative Adversarial Network
- Title(参考訳): MagGAN: Mask-Guided Generative Adversarial Network を用いた高解像度顔属性編集
- Authors: Yi Wei, Zhe Gan, Wenbo Li, Siwei Lyu, Ming-Ching Chang, Lei Zhang,
Jianfeng Gao, Pengchuan Zhang
- Abstract要約: MagGANは、望ましい属性変更に関連する顔の部分のみを編集することを学ぶ。
各属性変更の影響領域をジェネレータに組み込むために、新しいマスク誘導条件付け戦略を導入する。
高解像度(1024×1024$)の顔編集のために,マルチレベルパッチワイド識別器構造を提案する。
- 参考スコア(独自算出の注目度): 145.4591079418917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Mask-guided Generative Adversarial Network (MagGAN) for
high-resolution face attribute editing, in which semantic facial masks from a
pre-trained face parser are used to guide the fine-grained image editing
process. With the introduction of a mask-guided reconstruction loss, MagGAN
learns to only edit the facial parts that are relevant to the desired attribute
changes, while preserving the attribute-irrelevant regions (e.g., hat, scarf
for modification `To Bald'). Further, a novel mask-guided conditioning strategy
is introduced to incorporate the influence region of each attribute change into
the generator. In addition, a multi-level patch-wise discriminator structure is
proposed to scale our model for high-resolution ($1024 \times 1024$) face
editing. Experiments on the CelebA benchmark show that the proposed method
significantly outperforms prior state-of-the-art approaches in terms of both
image quality and editing performance.
- Abstract(参考訳): 本稿では,事前学習した顔パーサから意味的な顔マスクを用いて細粒度画像編集プロセスを指導する,高分解能顔属性編集のためのマスク誘導生成広告ネットワーク(maggan)を提案する。
マスクガイドによる再建損失の導入により、MagGANは、属性非関連領域(例えば、帽子、修正用のスカーフ「To Bald」)を保存しながら、望ましい属性変化に関連する顔の部分のみを編集することを学ぶ。
さらに、各属性変化の影響領域をジェネレータに組み込むために、新しいマスク誘導条件付け戦略を導入する。
さらに,マルチレベルパッチワイズ判別器構造を提案し,高精細度 (1024 \times 1024$) 顔編集のためのモデルを拡張した。
CelebAベンチマーク実験により,提案手法は画像品質と編集性能の両面において,従来の手法よりも大幅に優れていた。
関連論文リスト
- Mitigating the Impact of Attribute Editing on Face Recognition [14.138965856511387]
現代の生成型AIモデルを用いた顔属性の編集は、顔認識システムを著しく劣化させる可能性があることを示す。
局所的およびグローバルな属性編集のための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-12T22:03:19Z) - Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - ManiCLIP: Multi-Attribute Face Manipulation from Text [104.30600573306991]
テキスト記述に基づく新しい多属性顔操作法を提案する。
本手法は,テキスト関連属性の編集を最小限に抑えた自然な顔を生成する。
論文 参考訳(メタデータ) (2022-10-02T07:22:55Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - High Resolution Face Editing with Masked GAN Latent Code Optimization [0.0]
顔の編集はコンピュータビジョンコミュニティで人気のある研究トピックである。
最近の提案手法は、条件付きエンコーダデコーダであるGAN(Generative Adversarial Network)をエンドツーエンドでトレーニングするか、事前に訓練されたバニラGANジェネレータモデルの潜時空間での動作を定義するかのいずれかである。
空間的および意味的制約を伴ったGAN組み込み最適化手順を提案する。
論文 参考訳(メタデータ) (2021-03-20T08:39:41Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - PA-GAN: Progressive Attention Generative Adversarial Network for Facial
Attribute Editing [67.94255549416548]
顔属性編集のためのプログレッシブアテンションGAN(PA-GAN)を提案する。
提案手法は,非関連情報による属性の正確な編集を,最先端技術と比較してはるかによく保存する。
論文 参考訳(メタデータ) (2020-07-12T03:04:12Z) - Reference-guided Face Component Editing [51.29105560090321]
本稿では,多様かつ制御可能な顔コンポーネント編集のためのr-FACE (Reference-guided FAce Component Editing) という新しいフレームワークを提案する。
具体的には、r-FACEは、顔成分の形状を制御する条件として参照画像を利用して、画像の塗装モデルをバックボーンとして利用する。
フレームワークが対象の顔成分に集中するよう促すため、基準画像から抽出した注目特徴と対象の顔成分特徴とを融合させるために、サンプル誘導注意モジュールが設計されている。
論文 参考訳(メタデータ) (2020-06-03T05:34:54Z) - Exemplar-based Generative Facial Editing [2.272764591035106]
そこで本研究では,この領域の画期的な顔編集のための新しい生成手法を提案する。
実験により,本手法は多種多様かつパーソナライズされた顔編集結果が得られることを示した。
論文 参考訳(メタデータ) (2020-05-31T09:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。