論文の概要: Neural Parameterization for Dynamic Human Head Editing
- arxiv url: http://arxiv.org/abs/2207.00210v1
- Date: Fri, 1 Jul 2022 05:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 14:13:54.498278
- Title: Neural Parameterization for Dynamic Human Head Editing
- Title(参考訳): 動的頭部編集のための神経パラメータ化
- Authors: Li Ma, Xiaoyu Li, Jing Liao, Xuan Wang, Qi Zhang, Jue Wang, Pedro
Sander
- Abstract要約: 暗黙的手法と明示的手法の両方の利点を提供するハイブリッド表現であるニューラル化(NeP)を提案する。
NePは、シーンの幾何学と外観のきめ細かい編集を可能にしながら、写真リアリスティックなレンダリングを可能にする。
その結果,NePは高い編集性を維持しつつ,ほぼ同じレベルのレンダリング精度を実現していることがわかった。
- 参考スコア(独自算出の注目度): 26.071370285285465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit radiance functions emerged as a powerful scene representation for
reconstructing and rendering photo-realistic views of a 3D scene. These
representations, however, suffer from poor editability. On the other hand,
explicit representations such as polygonal meshes allow easy editing but are
not as suitable for reconstructing accurate details in dynamic human heads,
such as fine facial features, hair, teeth, and eyes. In this work, we present
Neural Parameterization (NeP), a hybrid representation that provides the
advantages of both implicit and explicit methods. NeP is capable of
photo-realistic rendering while allowing fine-grained editing of the scene
geometry and appearance. We first disentangle the geometry and appearance by
parameterizing the 3D geometry into 2D texture space. We enable geometric
editability by introducing an explicit linear deformation blending layer. The
deformation is controlled by a set of sparse key points, which can be
explicitly and intuitively displaced to edit the geometry. For appearance, we
develop a hybrid 2D texture consisting of an explicit texture map for easy
editing and implicit view and time-dependent residuals to model temporal and
view variations. We compare our method to several reconstruction and editing
baselines. The results show that the NeP achieves almost the same level of
rendering accuracy while maintaining high editability.
- Abstract(参考訳): 入射放射関数は、3Dシーンの写実視を再構成しレンダリングするための強力なシーン表現として現れた。
しかし、これらの表現は編集性が悪い。
一方、多角形メッシュのような明示的な表現は簡単に編集できるが、顔の細かい特徴、髪、歯、目といった人間の頭の正確な詳細を再構築するのには適していない。
本稿では,暗黙的手法と明示的手法の両方の利点を提供するハイブリッド表現であるneural parameterization (nep)を提案する。
NePは、シーンの幾何学と外観のきめ細かい編集を可能にしながら、写真リアリスティックなレンダリングを可能にする。
まず,3次元形状を2次元テクスチャ空間にパラメータ化することにより,形状と外観を分離する。
明示的な線形変形混合層を導入することで幾何学的編集性を実現する。
変形はスパースキーポイントの集合によって制御され、幾何を編集するために明示的に直感的に変位することができる。
外観に関して,時間依存残差と時間依存残差をモデル化し,時間依存残差をモデル化する明示的なテクスチャマップを用いたハイブリッドな2次元テクスチャを開発する。
本手法を複数のベースラインの再構成と編集と比較した。
その結果,NePは高い編集性を維持しつつ,ほぼ同じレベルのレンダリング精度を実現することがわかった。
関連論文リスト
- Layout2Scene: 3D Semantic Layout Guided Scene Generation via Geometry and Appearance Diffusion Priors [52.63385546943866]
本稿では,3次元オブジェクト位置の正確な制御をインジェクションするプロンプトとして,追加のセマンティックレイアウトを用いたテキスト・ツー・シーン生成手法(Layout2Scene)を提案する。
幾何学および外見生成における2次元拡散先行をフル活用するために,意味誘導幾何拡散モデルと意味誘導幾何誘導拡散モデルを導入する。
我々の手法は、最先端のアプローチに比べて、より可塑性でリアルなシーンを生成することができる。
論文 参考訳(メタデータ) (2025-01-05T12:20:13Z) - Image Sculpting: Precise Object Editing with 3D Geometry Control [33.9777412846583]
Image Sculptingは、3D幾何学とグラフィックスのツールを組み込むことで、2D画像を編集する新しいフレームワークである。
これは、ポーズ編集、回転、翻訳、3D合成、彫刻、シリアル追加といった、正確で定量化され、物理的に証明可能な編集オプションをサポートする。
論文 参考訳(メタデータ) (2024-01-02T18:59:35Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [90.57414218888536]
カラーフィールドは、標準画像(canonical image)とも呼ばれる、明示的な2次元の外観アグリゲーションとして学習する。
テクスチャクエリのために3Dポイントを2Dピクセルにマッピングする投影場を標準画像に補完する。
提案手法は,既存のNeRFベースの編集手法に比べて,編集1回あたり20倍高速であることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - Text-Guided 3D Face Synthesis -- From Generation to Editing [53.86765812392627]
顔生成から編集までの統一的なテキスト誘導フレームワークを提案する。
我々は、RGBおよびYUV空間のテクスチャ品質を高めるために、微調整されたテクスチャ拡散モデルを用いている。
整合性を維持しつつ編集効率を向上させるための自己誘導整合性ウェイト戦略を提案する。
論文 参考訳(メタデータ) (2023-12-01T06:36:23Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - NeuTex: Neural Texture Mapping for Volumetric Neural Rendering [48.83181790635772]
本稿では,ジオメトリ-連続3次元ボリューム-出現-連続2次元テクスチャマップとして表現-を明示的に切り離す手法を提案する。
我々は,この表現を多視点画像監視のみを用いて再構成し,高品質なレンダリング結果を生成することを実証した。
論文 参考訳(メタデータ) (2021-03-01T05:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。