論文の概要: LC-NeRF: Local Controllable Face Generation in Neural Randiance Field
- arxiv url: http://arxiv.org/abs/2302.09486v1
- Date: Sun, 19 Feb 2023 05:50:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:07:49.433974
- Title: LC-NeRF: Local Controllable Face Generation in Neural Randiance Field
- Title(参考訳): LC-NeRF:ニューラルランディアンスフィールドにおける局所制御可能な顔生成
- Authors: Wenyang Zhou, Lu Yuan, Shuyu Chen, Lin Gao, Shimin Hu
- Abstract要約: LC-NeRFは、ローカルリージョンジェネレータモジュールと空間認識融合モジュールで構成される。
本手法は,最先端の顔編集法よりも局所的な編集が優れている。
また,テキスト駆動型顔画像編集など,下流のタスクでもよく機能する。
- 参考スコア(独自算出の注目度): 55.54131820411912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D face generation has achieved high visual quality and 3D consistency thanks
to the development of neural radiance fields (NeRF). Recently, to generate and
edit 3D faces with NeRF representation, some methods are proposed and achieve
good results in decoupling geometry and texture. The latent codes of these
generative models affect the whole face, and hence modifications to these codes
cause the entire face to change. However, users usually edit a local region
when editing faces and do not want other regions to be affected. Since changes
to the latent code affect global generation results, these methods do not allow
for fine-grained control of local facial regions. To improve local
controllability in NeRF-based face editing, we propose LC-NeRF, which is
composed of a Local Region Generators Module and a Spatial-Aware Fusion Module,
allowing for local geometry and texture control of local facial regions.
Qualitative and quantitative evaluations show that our method provides better
local editing than state-of-the-art face editing methods. Our method also
performs well in downstream tasks, such as text-driven facial image editing.
- Abstract(参考訳): ニューラルレイディアンスフィールド(NeRF)の開発により、3D顔生成は高画質で3D整合性を実現している。
近年,NeRF表現による3次元顔の生成と編集のために,幾何とテクスチャを疎結合する手法が提案されている。
これらの生成モデルの潜在コードは顔全体に影響するため、これらのコードの変更は顔全体の変化を引き起こす。
しかし、ユーザーは通常、顔の編集時にローカル領域を編集し、他の領域に影響を受けたくない。
潜在コードの変更は、グローバル生成結果に影響を与えるため、これらの方法は、局所的な顔領域のきめ細かい制御を許さない。
nerfベースの顔編集における局所制御性を向上させるため,我々は,局所領域生成モジュールと空間認識融合モジュールからなるlc-nerfを提案する。
質的・定量的評価により,最先端顔編集法よりも局所的な編集性が向上した。
提案手法は,テキスト駆動顔画像編集などの下流タスクにおいても良好に機能する。
関連論文リスト
- Revealing Directions for Text-guided 3D Face Editing [52.85632020601518]
3次元顔編集はマルチメディアにおいて重要な課題であり、様々な制御信号間での3次元顔モデルの操作を目的としている。
任意の属性記述に基づく3次元顔の生成と操作のためのテキスト汎用アプローチであるFace Clanを提案する。
本手法は,ユーザがテキスト記述で興味のある領域を直感的にカスタマイズできる,正確に制御可能な操作方法を提供する。
論文 参考訳(メタデータ) (2024-10-07T12:04:39Z) - ShapeFusion: A 3D diffusion model for localized shape editing [37.82690898932135]
本研究では,任意の形状領域の局所的な操作を容易にする効果的な拡散マスキングトレーニング戦略を提案する。
現在の最先端技術と比較して、我々の手法は遅延コード状態に依存する方法よりも解釈可能な形状操作をもたらす。
論文 参考訳(メタデータ) (2024-03-28T18:50:19Z) - MaTe3D: Mask-guided Text-based 3D-aware Portrait Editing [61.014328598895524]
textbfMaTe3D:マスク誘導型テキストベースの3D画像編集を提案する。
SDFに基づく新しい3Dジェネレータは,SDFと密度の整合性損失により局所的およびグローバルな表現を学習する。
幾何とテクスチャの条件蒸留(CDGT)は視覚的曖昧さを軽減し、テクスチャと幾何学のミスマッチを避ける。
論文 参考訳(メタデータ) (2023-12-12T03:04:08Z) - Text-Guided 3D Face Synthesis -- From Generation to Editing [53.86765812392627]
顔生成から編集までの統一的なテキスト誘導フレームワークを提案する。
我々は、RGBおよびYUV空間のテクスチャ品質を高めるために、微調整されたテクスチャ拡散モデルを用いている。
整合性を維持しつつ編集効率を向上させるための自己誘導整合性ウェイト戦略を提案する。
論文 参考訳(メタデータ) (2023-12-01T06:36:23Z) - Fine-Grained Face Swapping via Regional GAN Inversion [18.537407253864508]
所望の微妙な幾何やテクスチャの詳細を忠実に保存する,高忠実な顔交換のための新しいパラダイムを提案する。
顔成分の形状とテクスチャの明示的な乱れに基づく枠組みを提案する。
我々のシステムの中核には、形状とテクスチャの明示的な切り離しを可能にする、新しいRegional GAN Inversion (RGI) 手法がある。
論文 参考訳(メタデータ) (2022-11-25T12:40:45Z) - NeRFFaceEditing: Disentangled Face Editing in Neural Radiance Fields [40.543998582101146]
ニューラル放射場における幾何と外観の編集とデカップリングを可能にするNeRFFaceEditingを導入する。
提案手法では,ユーザが幾何学と外観の分離した制御を施したセマンティックマスクによる編集が可能となる。
定性的かつ定量的な評価は,既存の解や代替解と比較して,本手法の幾何学的・外見的制御能力に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-15T08:11:39Z) - Generative Neural Articulated Radiance Fields [104.9224190002448]
我々は,人間の身体の放射界を標準的なポーズで生成し,明示的な変形場を用いて所望の身体のポーズや表情にワープする3D GANフレームワークを開発した。
変形認識訓練はポーズや表情を編集する際の身体や顔の質を著しく向上させる。
論文 参考訳(メタデータ) (2022-06-28T22:49:42Z) - FEAT: Face Editing with Attention [70.89233432407305]
StyleGAN ジェネレータ上に構築し,顔の操作を意図した領域に集中させる手法を提案する。
編集された画像の生成中、アテンションマップは、元の特徴と修正された特徴とのブレンドをガイドするマスクとして機能する。
論文 参考訳(メタデータ) (2022-02-06T06:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。