論文の概要: Custom Structure Preservation in Face Aging
- arxiv url: http://arxiv.org/abs/2207.11025v1
- Date: Fri, 22 Jul 2022 11:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 12:44:19.831929
- Title: Custom Structure Preservation in Face Aging
- Title(参考訳): 顔の老化におけるカスタム構造保存
- Authors: Guillermo Gomez-Trenado (1), St\'ephane Lathuili\`ere (2), Pablo
Mesejo (1), \'Oscar Cord\'on (1) ((1) DaSCI research institute, DECSAI,
University of Granada, Granada, Spain, (2) LTCI, T\'el\'ecom-Paris, Intitute
Polytechnique de Paris, Palaiseau, France)
- Abstract要約: 本稿では,顔画像に関連性のある細部を保ちながら構造変化を生成できる顔画像編集のための新しいアーキテクチャを提案する。
本稿では,入力画像のスタイルと内容のアンタングルを解消し,入力画像のスタイルとコンテンツ表現を,出力を目標年齢に条件付けながら組み合わせたスタイルベースの戦略を取り入れた新しいデコーダネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a novel architecture for face age editing that can
produce structural modifications while maintaining relevant details present in
the original image. We disentangle the style and content of the input image and
propose a new decoder network that adopts a style-based strategy to combine the
style and content representations of the input image while conditioning the
output on the target age. We go beyond existing aging methods allowing users to
adjust the degree of structure preservation in the input image during
inference. To this purpose, we introduce a masking mechanism, the CUstom
Structure Preservation module, that distinguishes relevant regions in the input
image from those that should be discarded. CUSP requires no additional
supervision. Finally, our quantitative and qualitative analysis which include a
user study, show that our method outperforms prior art and demonstrates the
effectiveness of our strategy regarding image editing and adjustable structure
preservation. Code and pretrained models are available at
https://github.com/guillermogotre/CUSP.
- Abstract(参考訳): そこで本研究では,顔画像に関連性のある細部を維持しつつ,構造変化を生成できる顔画像編集のための新しいアーキテクチャを提案する。
本稿では,入力画像のスタイルと内容のアンタングルを解消し,入力画像のスタイルとコンテンツ表現を,出力を目標年齢に条件付けながら組み合わせたスタイルベースの戦略を取り入れた新しいデコーダネットワークを提案する。
既存の老化手法を超越して、ユーザは推論中に入力画像の構造保存の度合いを調整できる。
そこで本稿では,入力画像内の関連領域を破棄すべき領域と区別するマスク機構であるCUstom Structure Preservationモジュールを導入する。
CUSPは追加の監視を必要としない。
最後に,ユーザ調査を含む定量的・質的分析により,本手法が先行技術よりも優れており,画像編集と構造保存に関する戦略の有効性を示す。
コードと事前訓練されたモデルはhttps://github.com/guillermogotre/CUSP.comで入手できる。
関連論文リスト
- VASE: Object-Centric Appearance and Shape Manipulation of Real Videos [108.60416277357712]
本研究では,オブジェクトの外観と,特にオブジェクトの精密かつ明示的な構造的変更を実行するために設計された,オブジェクト中心のフレームワークを紹介する。
我々は,事前学習した画像条件拡散モデル上にフレームワークを構築し,時間次元を扱うためのレイヤを統合するとともに,形状制御を実現するためのトレーニング戦略とアーキテクチャ修正を提案する。
我々は,画像駆動映像編集タスクにおいて,最先端技術に類似した性能を示し,新しい形状編集機能を示す手法について検討した。
論文 参考訳(メタデータ) (2024-01-04T18:59:24Z) - A Compact and Semantic Latent Space for Disentangled and Controllable
Image Editing [4.8201607588546]
本稿では,StyleGANの潜在空間を再編成するオートエンコーダを提案する。
提案手法は,同一性に関して元の画像に対する忠実さを維持しつつ,競合する手法よりも不整合性が高いことを示す。
論文 参考訳(メタデータ) (2023-12-13T16:18:45Z) - Enhancing Detail Preservation for Customized Text-to-Image Generation: A
Regularization-Free Approach [43.53330622723175]
正規化を使わずにカスタマイズされたテキスト・画像生成のための新しいフレームワークを提案する。
提案したフレームワークでは,1つのGPU上で30分以内に大規模テキスト・画像生成モデルをカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-23T01:14:53Z) - ReGeneration Learning of Diffusion Models with Rich Prompts for
Zero-Shot Image Translation [8.803251014279502]
大規模なテキスト・ツー・イメージモデルは、多彩で高忠実な画像を合成する素晴らしい能力を示した。
現在のモデルでは、編集プロセス中に元の画像の内容に大きな変更を加えることができる。
画像と画像の拡散モデル(ReDiffuser)における再生学習を提案する。
論文 参考訳(メタデータ) (2023-05-08T12:08:12Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - Style Intervention: How to Achieve Spatial Disentanglement with
Style-based Generators? [100.60938767993088]
任意の入力画像に適応し、フレキシブルな目的の下で自然な翻訳効果をレンダリングできる軽量な最適化アルゴリズムを提案する。
フォトリアリズムと一貫性の両方を必要とする高解像度画像の顔属性編集において,提案するフレームワークの性能を検証する。
論文 参考訳(メタデータ) (2020-11-19T07:37:31Z) - Reference-guided Face Component Editing [51.29105560090321]
本稿では,多様かつ制御可能な顔コンポーネント編集のためのr-FACE (Reference-guided FAce Component Editing) という新しいフレームワークを提案する。
具体的には、r-FACEは、顔成分の形状を制御する条件として参照画像を利用して、画像の塗装モデルをバックボーンとして利用する。
フレームワークが対象の顔成分に集中するよう促すため、基準画像から抽出した注目特徴と対象の顔成分特徴とを融合させるために、サンプル誘導注意モジュールが設計されている。
論文 参考訳(メタデータ) (2020-06-03T05:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。