論文の概要: EAvatar: Expression-Aware Head Avatar Reconstruction with Generative Geometry Priors
- arxiv url: http://arxiv.org/abs/2508.13537v1
- Date: Tue, 19 Aug 2025 05:56:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.812222
- Title: EAvatar: Expression-Aware Head Avatar Reconstruction with Generative Geometry Priors
- Title(参考訳): EAvatar: ジェネレーティブ・ジオメトリによる頭部アバター再構成
- Authors: Shikun Zhang, Cunjian Chen, Yiqun Wang, Qiuhong Ke, Yong Li,
- Abstract要約: 高忠実度アバター再構成は、AR/VR、ゲーム、マルチメディアコンテンツ作成において重要な役割を果たす。
近年の3Dガウススプラッティング(3DGS)の進歩は、実時間レンダリング能力を持つ複雑な幾何学をモデル化する上で有効であることを示した。
本稿では,表現認識と変形認識の両方が可能な頭部再構成のための3DGSベースの新しいフレームワークEAvatarを提案する。
- 参考スコア(独自算出の注目度): 31.25607301318426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-fidelity head avatar reconstruction plays a crucial role in AR/VR, gaming, and multimedia content creation. Recent advances in 3D Gaussian Splatting (3DGS) have demonstrated effectiveness in modeling complex geometry with real-time rendering capability and are now widely used in high-fidelity head avatar reconstruction tasks. However, existing 3DGS-based methods still face significant challenges in capturing fine-grained facial expressions and preserving local texture continuity, especially in highly deformable regions. To mitigate these limitations, we propose a novel 3DGS-based framework termed EAvatar for head reconstruction that is both expression-aware and deformation-aware. Our method introduces a sparse expression control mechanism, where a small number of key Gaussians are used to influence the deformation of their neighboring Gaussians, enabling accurate modeling of local deformations and fine-scale texture transitions. Furthermore, we leverage high-quality 3D priors from pretrained generative models to provide a more reliable facial geometry, offering structural guidance that improves convergence stability and shape accuracy during training. Experimental results demonstrate that our method produces more accurate and visually coherent head reconstructions with improved expression controllability and detail fidelity.
- Abstract(参考訳): 高忠実度アバター再構成は、AR/VR、ゲーム、マルチメディアコンテンツ作成において重要な役割を果たす。
近年, 3D Gaussian Splatting (3DGS) の進歩により, 実時間レンダリング機能を持つ複雑な幾何学のモデル化の有効性が証明され, 高忠実度頭部アバター再構成タスクに広く利用されている。
しかし、既存の3DGSベースの手法は、特に高度に変形可能な領域において、きめ細かな表情を捉え、局所的なテクスチャ連続性を維持する上で大きな課題に直面している。
これらの制約を緩和するために,表現認識と変形認識の両方が可能な頭部再構成のための新しい3DGSベースのフレームワークEAvatarを提案する。
本手法では,少数のキーガウスが隣接するガウスの変形に影響を与え,局所的な変形の正確なモデル化と微視的なテクスチャ遷移を可能にする,スパース表現制御機構を導入する。
さらに、事前学習した生成モデルからの高品質な3D先行情報を活用し、より信頼性の高い顔形状を提供し、トレーニング中の収束安定性と形状精度を向上させる構造的ガイダンスを提供する。
提案手法は,表現制御性の向上と細部忠実度の向上を図り,より正確で視覚的に整合した頭部再構成を実現する。
関連論文リスト
- MoGaFace: Momentum-Guided and Texture-Aware Gaussian Avatars for Consistent Facial Geometry [3.0373043721834163]
MoGaFaceは、顔の形状とテクスチャ特性を継続的に洗練する、3Dヘッドアバターモデリングフレームワークである。
MoGaFaceは高忠実な頭部アバター再構成を実現し、新規な合成品質を著しく向上させる。
論文 参考訳(メタデータ) (2025-08-02T06:25:51Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling [52.87836237427514]
フォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
本稿では,最先端の3Dヘッドアバターモデルを提案する。
論文 参考訳(メタデータ) (2025-05-08T22:10:27Z) - HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - Evolving High-Quality Rendering and Reconstruction in a Unified Framework with Contribution-Adaptive Regularization [27.509109317973817]
3D Gaussian Splatting (3DGS)は、高品質なレンダリングと高速な推論速度で注目されている。
従来の手法は主に幾何学的正則化に焦点を当てており、プリミティブベースのフレームワークやデュアルモデルフレームワークを含む一般的なアプローチがある。
本稿では,高画質表面再構成を実現するために,適応正規化を利用した統一モデルであるCarGSを提案する。
論文 参考訳(メタデータ) (2025-03-02T12:51:38Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - HeadRecon: High-Fidelity 3D Head Reconstruction from Monocular Video [37.53752896927615]
任意のモノクラービデオから高忠実度3Dヘッドモデルの再構成について検討する。
本稿では,これらの問題に対処するために,事前誘導型動的暗黙的ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T12:38:56Z) - InvertAvatar: Incremental GAN Inversion for Generalized Head Avatars [40.10906393484584]
本稿では,複数フレームからの忠実度向上を目的としたアルゴリズムを用いて,アバター復元性能を向上させる新しいフレームワークを提案する。
本アーキテクチャでは,画素対応画像-画像変換を重要視し,観測空間と標準空間の対応を学習する必要性を緩和する。
提案手法は,1ショットと数ショットのアバターアニメーションタスクにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2023-12-03T18:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。