論文の概要: LUCAS: Layered Universal Codec Avatars
- arxiv url: http://arxiv.org/abs/2502.19739v2
- Date: Mon, 17 Mar 2025 20:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:12:05.966247
- Title: LUCAS: Layered Universal Codec Avatars
- Title(参考訳): LUCAS: 階層化されたユニバーサルコーデックアバター
- Authors: Di Liu, Teng Deng, Giljoo Nam, Yu Rong, Stanislav Pidhorskyi, Junxuan Li, Jason Saragih, Dimitris N. Metaxas, Chen Cao,
- Abstract要約: 光3D頭部アバター再構成は、動的顔と髪の相互作用をモデル化する上で重要な課題に直面している。
本稿では,アバターモデリングのための新しいユニバーサルプライオリティモデル (UPM) であるLUCASについて述べる。
- 参考スコア(独自算出の注目度): 48.737625335705644
- License:
- Abstract: Photorealistic 3D head avatar reconstruction faces critical challenges in modeling dynamic face-hair interactions and achieving cross-identity generalization, particularly during expressions and head movements. We present LUCAS, a novel Universal Prior Model (UPM) for codec avatar modeling that disentangles face and hair through a layered representation. Unlike previous UPMs that treat hair as an integral part of the head, our approach separates the modeling of the hairless head and hair into distinct branches. LUCAS is the first to introduce a mesh-based UPM, facilitating real-time rendering on devices. Our layered representation also improves the anchor geometry for precise and visually appealing Gaussian renderings. Experimental results indicate that LUCAS outperforms existing single-mesh and Gaussian-based avatar models in both quantitative and qualitative assessments, including evaluations on held-out subjects in zero-shot driving scenarios. LUCAS demonstrates superior dynamic performance in managing head pose changes, expression transfer, and hairstyle variations, thereby advancing the state-of-the-art in 3D head avatar reconstruction.
- Abstract(参考訳): 光リアリスティックな3次元頭部アバター再構成は、動的顔と髪の相互作用をモデル化し、特に表情や頭の動きにおいて、相互同一性一般化を達成する上で重要な課題に直面している。
LUCAS(Universal Prior Model, UPM)は, 顔と毛髪を層状表現で切り離すコーデックアバターモデリングのための新しいユニバーサルプライオリティモデルである。
毛髪を頭部の一体的な部分として扱う以前のUPMとは異なり、我々のアプローチは毛髪のない頭と毛髪のモデリングを別々の枝に分ける。
LUCASは、初めてメッシュベースのUPMを導入し、デバイス上でリアルタイムレンダリングを容易にする。
階層表現はまた、精密かつ視覚的に魅力的なガウスレンダリングのためのアンカー幾何学も改善する。
実験結果から, LUCASは, ゼロショット運転シナリオにおける保持被験者の評価を含む, 既存の単一メシュモデルとガウス型アバターモデルより, 定量的および定性的評価において優れていたことが示唆された。
LUCASは頭部ポーズの変化、表情伝達、髪型の変化の管理において優れた動的性能を示し、3D頭部アバター再構築における最先端の進歩を図っている。
関連論文リスト
- Synthetic Prior for Few-Shot Drivable Head Avatar Inversion [61.51887011274453]
そこで本研究では,合成前駆体に基づく乾燥可能な頭部アバターの少数ショット逆転法であるSynShotを提案する。
合成データのみに基づいて訓練された機械学習モデルに着想を得て,合成頭部の大きなデータセットから先行モデルを学習する手法を提案する。
我々は3次元ガウススプラッティングとUVテクスチャ空間におけるガウスパラメータを出力する畳み込みエンコーダデコーダを用いて頭部アバターをモデル化する。
論文 参考訳(メタデータ) (2025-01-12T19:01:05Z) - GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - GPHM: Gaussian Parametric Head Model for Monocular Head Avatar Reconstruction [47.113910048252805]
高忠実度3D人間の頭部アバターは、VR/AR、デジタル人間、映画製作に不可欠である。
近年の進歩は、変形可能な顔モデルを利用して、様々なアイデンティティと表現を表現するアニメーションヘッドアバターを生成している。
本稿では,人間の頭部の複雑さを正確に表現するために,三次元ガウスを用いた3次元ガウスパラメトリックヘッドモデルを提案する。
論文 参考訳(メタデータ) (2024-07-21T06:03:11Z) - MeGA: Hybrid Mesh-Gaussian Head Avatar for High-Fidelity Rendering and Head Editing [34.31657241047574]
より適切な表現で異なるヘッドコンポーネントをモデル化するハイブリッドメッシュ・ガウスヘッドアバター(MeGA)を提案する。
MeGAは、ヘッド全体の高忠実度レンダリングを生成し、自然に下流タスクをサポートする。
NeRSembleデータセットの実験は、我々の設計の有効性を実証している。
論文 参考訳(メタデータ) (2024-04-29T18:10:12Z) - HHAvatar: Gaussian Head Avatar with Dynamic Hairs [27.20228210350169]
動的ヘアモデリングを用いた高忠実度頭部アバターの3次元ガウスアン制御が可能なアバターを提案する。
提案手法は,2K解像度で超高忠実なレンダリング品質を実現するため,最先端のスパースビュー法よりも優れている。
論文 参考訳(メタデータ) (2023-12-05T11:01:44Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - One-Shot High-Fidelity Talking-Head Synthesis with Deformable Neural
Radiance Field [81.07651217942679]
トーキングヘッド生成は、ソース画像の識別情報を保持し、駆動画像の動作を模倣する顔を生成することを目的としている。
我々は高忠実かつ自由視点の対話ヘッド合成を実現するHiDe-NeRFを提案する。
論文 参考訳(メタデータ) (2023-04-11T09:47:35Z) - GANHead: Towards Generative Animatable Neural Head Avatars [31.35233032284164]
GANHeadは、明示的な表現パラメータのきめ細かい制御の利点を生かした、新しい生成ヘッドモデルである。
粗い幾何学、細かな詳細、標準空間の3つのネットワークによるテクスチャを表現している。
ヘッドアバター生成および生スキャンフィッティングにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-04-08T07:56:21Z) - Free-HeadGAN: Neural Talking Head Synthesis with Explicit Gaze Control [54.079327030892244]
Free-HeadGANは、人為的なニューラルトーキングヘッド合成システムである。
本研究では,3次元顔のランドマークが不足している顔のモデリングが,最先端の生成性能を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2022-08-03T16:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。