論文の概要: CA-Edit: Causality-Aware Condition Adapter for High-Fidelity Local Facial Attribute Editing
- arxiv url: http://arxiv.org/abs/2412.13565v1
- Date: Wed, 18 Dec 2024 07:33:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:49:04.947320
- Title: CA-Edit: Causality-Aware Condition Adapter for High-Fidelity Local Facial Attribute Editing
- Title(参考訳): CA-Edit: 高精細局所顔属性編集のための因果認識条件適応器
- Authors: Xiaole Xian, Xilin He, Zenghao Niu, Junliang Zhang, Weicheng Xie, Siyang Song, Zitong Yu, Linlin Shen,
- Abstract要約: データ駆動の観点から、属性テキストトリプルからなるデータセットを構築するために、新しいデータ利用戦略が導入された。
文脈因果関係の局所的モデリングのための皮膚遷移周波数誘導手法を提案する。
- 参考スコア(独自算出の注目度): 41.92598830147057
- License:
- Abstract: For efficient and high-fidelity local facial attribute editing, most existing editing methods either require additional fine-tuning for different editing effects or tend to affect beyond the editing regions. Alternatively, inpainting methods can edit the target image region while preserving external areas. However, current inpainting methods still suffer from the generation misalignment with facial attributes description and the loss of facial skin details. To address these challenges, (i) a novel data utilization strategy is introduced to construct datasets consisting of attribute-text-image triples from a data-driven perspective, (ii) a Causality-Aware Condition Adapter is proposed to enhance the contextual causality modeling of specific details, which encodes the skin details from the original image while preventing conflicts between these cues and textual conditions. In addition, a Skin Transition Frequency Guidance technique is introduced for the local modeling of contextual causality via sampling guidance driven by low-frequency alignment. Extensive quantitative and qualitative experiments demonstrate the effectiveness of our method in boosting both fidelity and editability for localized attribute editing. The code is available at https://github.com/connorxian/CA-Edit.
- Abstract(参考訳): 効率よく、高忠実な局所的な顔属性の編集を行うために、既存の編集方法の多くは、異なる編集効果のために追加の微調整を必要とするか、編集領域を超えて影響する傾向がある。
あるいは、塗装法は、外部の領域を保持しながら、対象の画像領域を編集することができる。
しかし、現在の塗布法は、顔の属性の記述と顔の皮膚の詳細の欠如による世代的不一致に悩まされている。
これらの課題に対処する。
(i)属性・テキスト・イメージ・トリプルからなるデータセットをデータ駆動の観点から構築するための新しいデータ利用戦略を導入する。
(II) 特定の詳細の文脈因果性モデリングを強化するために, 因果性を考慮した条件適応器を提案し, 原画像から皮膚の細部を符号化し, 両者の相違を防止した。
また、低周波アライメントによるサンプリング誘導による文脈因果関係の局所的モデリングのために、皮膚遷移周波数誘導技術を導入している。
局所化属性編集における忠実度と編集性の向上に本手法が有効であることを示す。
コードはhttps://github.com/connorxian/CA-Editで公開されている。
関連論文リスト
- Learning Feature-Preserving Portrait Editing from Generated Pairs [11.122956539965761]
そこで本研究では,自動生成ペアデータを活用して,所望の編集を学習する学習手法を提案する。
本手法は,最先端の品質を定量的かつ質的に達成する。
論文 参考訳(メタデータ) (2024-07-29T23:19:42Z) - MAG-Edit: Localized Image Editing in Complex Scenarios via Mask-Based
Attention-Adjusted Guidance [28.212908146852197]
我々は,複雑なシナリオにおける局所的な画像編集を可能にする,トレーニング不要な推論ステージ最適化手法であるMAG-Editを開発した。
特に、MAG-Editは2つのマスクベースのクロスアテンション制約を最大化することにより拡散モデルのノイズ潜時特性を最適化する。
論文 参考訳(メタデータ) (2023-12-18T17:55:44Z) - AdapEdit: Spatio-Temporal Guided Adaptive Editing Algorithm for
Text-Based Continuity-Sensitive Image Editing [24.9487669818162]
本稿では,適応的な画像編集を実現するための時間的ガイド付き適応編集アルゴリズムAdapEditを提案する。
我々のアプローチは、モデルの事前保存において大きな利点があり、モデルトレーニング、微調整された追加データ、最適化を必要としない。
提案手法は,様々な原画像や編集命令を対象とし,競争性能を実証し,従来の手法よりも優れていたことを示す。
論文 参考訳(メタデータ) (2023-12-13T09:45:58Z) - Customize your NeRF: Adaptive Source Driven 3D Scene Editing via
Local-Global Iterative Training [61.984277261016146]
テキスト記述や参照画像を編集プロンプトとして統合するCustomNeRFモデルを提案する。
最初の課題に取り組むために,前景領域編集とフルイメージ編集を交互に行うローカル・グローバル反復編集(LGIE)トレーニング手法を提案する。
第2の課題として、生成モデル内のクラス事前を利用して、一貫性の問題を緩和するクラス誘導正規化を設計する。
論文 参考訳(メタデータ) (2023-12-04T06:25:06Z) - iEdit: Localised Text-guided Image Editing with Weak Supervision [53.082196061014734]
テキスト誘導画像編集のための新しい学習法を提案する。
ソースイメージに条件付けされた画像とテキスト編集プロンプトを生成する。
画像の忠実度、CLIPアライメントスコア、および生成された画像と実際の画像の両方を定性的に編集する点において、画像に対して好ましい結果を示す。
論文 参考訳(メタデータ) (2023-05-10T07:39:14Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - MagGAN: High-Resolution Face Attribute Editing with Mask-Guided
Generative Adversarial Network [145.4591079418917]
MagGANは、望ましい属性変更に関連する顔の部分のみを編集することを学ぶ。
各属性変更の影響領域をジェネレータに組み込むために、新しいマスク誘導条件付け戦略を導入する。
高解像度(1024×1024$)の顔編集のために,マルチレベルパッチワイド識別器構造を提案する。
論文 参考訳(メタデータ) (2020-10-03T20:56:16Z) - PA-GAN: Progressive Attention Generative Adversarial Network for Facial
Attribute Editing [67.94255549416548]
顔属性編集のためのプログレッシブアテンションGAN(PA-GAN)を提案する。
提案手法は,非関連情報による属性の正確な編集を,最先端技術と比較してはるかによく保存する。
論文 参考訳(メタデータ) (2020-07-12T03:04:12Z) - Exemplar-based Generative Facial Editing [2.272764591035106]
そこで本研究では,この領域の画期的な顔編集のための新しい生成手法を提案する。
実験により,本手法は多種多様かつパーソナライズされた顔編集結果が得られることを示した。
論文 参考訳(メタデータ) (2020-05-31T09:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。