論文の概要: Efficient Few-shot Identity Preserving Attribute Editing for 3D-aware Deep Generative Models
- arxiv url: http://arxiv.org/abs/2510.18287v1
- Date: Tue, 21 Oct 2025 04:27:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.919998
- Title: Efficient Few-shot Identity Preserving Attribute Editing for 3D-aware Deep Generative Models
- Title(参考訳): 3次元深部生成モデルの属性編集を効率よく行うFew-shot Identity
- Authors: Vishal Vinod,
- Abstract要約: 顔の同一性を保存することは、照明の修正、眼鏡の追加・削除、顔の老化、髪型の編集、表現の修正などを可能にする生成タスクである。
本稿では,最近の3次元認識深部生成モデルと2次元画像編集技術の進歩に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 0.6091702876917279
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identity preserving editing of faces is a generative task that enables modifying the illumination, adding/removing eyeglasses, face aging, editing hairstyles, modifying expression etc., while preserving the identity of the face. Recent progress in 2D generative models have enabled photorealistic editing of faces using simple techniques leveraging the compositionality in GANs. However, identity preserving editing for 3D faces with a given set of attributes is a challenging task as the generative model must reason about view consistency from multiple poses and render a realistic 3D face. Further, 3D portrait editing requires large-scale attribute labelled datasets and presents a trade-off between editability in low-resolution and inflexibility to editing in high resolution. In this work, we aim to alleviate some of the constraints in editing 3D faces by identifying latent space directions that correspond to photorealistic edits. To address this, we present a method that builds on recent advancements in 3D-aware deep generative models and 2D portrait editing techniques to perform efficient few-shot identity preserving attribute editing for 3D-aware generative models. We aim to show from experimental results that using just ten or fewer labelled images of an attribute is sufficient to estimate edit directions in the latent space that correspond to 3D-aware attribute editing. In this work, we leverage an existing face dataset with masks to obtain the synthetic images for few attribute examples required for estimating the edit directions. Further, to demonstrate the linearity of edits, we investigate one-shot stylization by performing sequential editing and use the (2D) Attribute Style Manipulation (ASM) technique to investigate a continuous style manifold for 3D consistent identity preserving face aging. Code and results are available at: https://vishal-vinod.github.io/gmpi-edit/
- Abstract(参考訳): 顔の同一性保存は、顔の同一性を維持しつつ、照明の変更、眼鏡の追加・削除、顔の老化、毛髪の編集、表情の修正等を可能にする生成タスクである。
2次元生成モデルの最近の進歩により、GANの合成性を利用した簡単な手法で顔の写実的編集が可能になった。
しかし、複数のポーズからの視点の一貫性を考慮し、リアルな3D顔を表示する必要があるため、属性セットを持つ3D顔のアイデンティティ保存編集は難しい作業である。
さらに、3D画像編集には大規模な属性ラベル付きデータセットが必要であり、低解像度で編集可能であることと高解像度で編集できないこととの間にトレードオフがある。
本研究では,フォトリアリスティックな編集に対応する潜在空間方向を特定することで,3次元顔の編集における制約を緩和することを目的とする。
そこで本研究では,近年の3D認識深部生成モデルと2D画像編集技術の進歩を基盤として,3D認識深部生成モデルに対する属性編集を効率的に行う手法を提案する。
提案手法は,属性のラベル付き画像が10個以下であれば,属性の編集に対応する潜在空間における編集方向を推定するのに十分であることを示す。
本研究では,マスクを用いた既存の顔データセットを用いて,編集方向を推定するために必要な属性例の少ない合成画像を得る。
さらに,編集の線形性を示すために, (2D) Attribute Style Manipulation (ASM) 技法を逐次的に編集し, 顔の老化を保ちながら, 連続的なスタイル多様体を探索する。
コードと結果は、https://vishal-vinod.github.io/gmpi-edit/.com/で公開されている。
関連論文リスト
- Towards Scalable and Consistent 3D Editing [32.16698854719098]
3D編集は没入型コンテンツ制作、デジタルエンターテイメント、AR/VRに広く応用されている。
2D編集とは異なり、クロスビューの一貫性、構造的忠実さ、きめ細かい制御性を必要とするため、依然として困難である。
我々はこれまでで最大の3D編集ベンチマークである3DEditVerseを紹介した。
モデル側では、3次元構造保存条件変換器である3DEditFormerを提案する。
論文 参考訳(メタデータ) (2025-10-03T13:34:55Z) - Preserving Identity with Variational Score for General-purpose 3D Editing [48.314327790451856]
Pivaは拡散モデルに基づいて画像や3Dモデルを編集する新しい最適化手法である。
我々は2Dと3Dの編集の限界を指摘し、細かな損失と過飽和を引き起こす。
恒常保存を強制する追加のスコア蒸留項を提案する。
論文 参考訳(メタデータ) (2024-06-13T09:32:40Z) - DragGaussian: Enabling Drag-style Manipulation on 3D Gaussian Representation [57.406031264184584]
DragGaussianは、3D Gaussian Splattingをベースにした3Dオブジェクトのドラッグ編集フレームワークである。
我々の貢献は、新しいタスクの導入、インタラクティブなポイントベース3D編集のためのDragGaussianの開発、質的かつ定量的な実験によるその効果の包括的検証などである。
論文 参考訳(メタデータ) (2024-05-09T14:34:05Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - MaTe3D: Mask-guided Text-based 3D-aware Portrait Editing [61.014328598895524]
textbfMaTe3D:マスク誘導型テキストベースの3D画像編集を提案する。
SDFに基づく新しい3Dジェネレータは,SDFと密度の整合性損失により局所的およびグローバルな表現を学習する。
幾何とテクスチャの条件蒸留(CDGT)は視覚的曖昧さを軽減し、テクスチャと幾何学のミスマッチを避ける。
論文 参考訳(メタデータ) (2023-12-12T03:04:08Z) - Editing 3D Scenes via Text Prompts without Retraining [80.57814031701744]
DN2Nはテキスト駆動編集方式であり、普遍的な編集機能を備えたNeRFモデルの直接取得を可能にする。
本手法では,2次元画像のテキストベース編集モデルを用いて3次元シーン画像の編集を行う。
本手法は,外観編集,天気変化,材質変化,スタイル伝達など,複数種類の編集を行う。
論文 参考訳(メタデータ) (2023-09-10T02:31:50Z) - SINE: Semantic-driven Image-based NeRF Editing with Prior-guided Editing
Field [37.8162035179377]
我々は,1つの画像でニューラルラディアンスフィールドを編集できる,新しい意味駆動型NeRF編集手法を提案する。
この目的を達成するために,3次元空間における微細な幾何学的・テクスチャ的編集を符号化する事前誘導編集場を提案する。
本手法は,1枚の編集画像のみを用いた写真リアルな3D編集を実現し,実世界の3Dシーンにおけるセマンティックな編集の限界を押し上げる。
論文 参考訳(メタデータ) (2023-03-23T13:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。