論文の概要: GeoDiff4D: Geometry-Aware Diffusion for 4D Head Avatar Reconstruction
- arxiv url: http://arxiv.org/abs/2602.24161v1
- Date: Fri, 27 Feb 2026 16:41:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.519409
- Title: GeoDiff4D: Geometry-Aware Diffusion for 4D Head Avatar Reconstruction
- Title(参考訳): GeoDiff4D:4次元頭部アバター再建のための幾何学的拡散
- Authors: Chao Xu, Xiaochen Zhao, Xiang Deng, Jingxiang Sun, Zhuo Su, Donglin Di, Yebin Liu,
- Abstract要約: 本稿では,高忠実度頭部アバター再構成のための,幾何学的拡散を利用した高精度な幾何学的先行学習フレームワークを提案する。
ポーズフリーな表現は暗黙的な表現をキャプチャするのに対し、我々はポートレート画像と対応する表面正規表現を共同で合成する。
本手法は, 視覚的品質, 表現忠実度, クロスアイデンティティの一般化において, 最先端のアプローチを著しく上回っている。
- 参考スコア(独自算出の注目度): 49.70452913749897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing photorealistic and animatable 4D head avatars from a single portrait image remains a fundamental challenge in computer vision. While diffusion models have enabled remarkable progress in image and video generation for avatar reconstruction, existing methods primarily rely on 2D priors and struggle to achieve consistent 3D geometry. We propose a novel framework that leverages geometry-aware diffusion to learn strong geometry priors for high-fidelity head avatar reconstruction. Our approach jointly synthesizes portrait images and corresponding surface normals, while a pose-free expression encoder captures implicit expression representations. Both synthesized images and expression latents are incorporated into 3D Gaussian-based avatars, enabling photorealistic rendering with accurate geometry. Extensive experiments demonstrate that our method substantially outperforms state-of-the-art approaches in visual quality, expression fidelity, and cross-identity generalization, while supporting real-time rendering.
- Abstract(参考訳): 1枚のポートレート画像から写実的でアニマブルな4Dヘッドアバターを再構築することは、コンピュータビジョンの基本的な課題である。
拡散モデルにより、アバター再構成のための画像生成と映像生成が著しく進歩する一方、既存の手法は主に2次元の先行技術に依存し、一貫した3次元形状を達成するのに苦労している。
本稿では,高忠実度頭部アバター再構成のための,幾何学的拡散を利用した高精度な幾何学的先行学習フレームワークを提案する。
ポーズフリーな表現エンコーダは暗黙の表現表現をキャプチャするのに対し、我々のアプローチはポートレート画像と対応する表面正規化を共同で合成する。
合成画像と表現潜伏剤は3次元ガウス系アバターに組み込まれ、正確な幾何学によるフォトリアリスティックレンダリングを可能にする。
広汎な実験により, リアルタイムレンダリングをサポートしながら, 視覚的品質, 表現忠実度, クロスアイデンティティの一般化において, 最先端の手法を大幅に上回っていることが示された。
関連論文リスト
- Self-Evolving 3D Scene Generation from a Single Image [44.87957263540352]
EvoSceneはトレーニング不要のフレームワークで、単一の画像から完全な3Dシーンを徐々に再構築する。
EvoSceneは2Dドメインと3Dドメインを交互に交換し、構造と外観の両方を徐々に改善する。
論文 参考訳(メタデータ) (2025-12-09T18:44:21Z) - MoGA: 3D Generative Avatar Prior for Monocular Gaussian Avatar Reconstruction [65.5412504339528]
MoGAは高忠実度3Dガウスアバターを単一視点画像から再構成する新しい手法である。
提案手法は最先端の手法を超越し,実世界のシナリオを一般化する。
論文 参考訳(メタデータ) (2025-07-31T14:36:24Z) - HAvatar: High-fidelity Head Avatar via Facial Model Conditioned Neural
Radiance Field [44.848368616444446]
我々は,NeRFの表現性とパラメトリックテンプレートからの事前情報を統合する,新しいハイブリッド・明示的3次元表現,顔モデル条件付きニューラルラジアンス場を導入する。
画像から画像への変換ネットワークを用いた全体的なGANアーキテクチャを採用することにより,動的頭部外観の高分解能,現実的,かつ一貫した合成を実現する。
論文 参考訳(メタデータ) (2023-09-29T10:45:22Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - SIRA: Relightable Avatars from a Single Image [19.69326772087838]
SIRAは人間の頭部アバターを高忠実度な形状と分解光と表面材料で再構成する手法である。
我々の重要な要素は、単視点3次元表面再構成と外観分解のあいまいさを解消するニューラルネットワークに基づく2つのデータ駆動統計モデルである。
論文 参考訳(メタデータ) (2022-09-07T09:47:46Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Deep 3D Portrait from a Single Image [54.634207317528364]
1枚の肖像画から人間の頭部の3次元形状を復元するための学習に基づくアプローチを提案する。
顔画像から3次元頭部再構成を学習するための2段階の幾何学的学習手法を提案する。
提案手法の精度を3次元画像と2次元画像のポーズ操作の両方で評価した。
論文 参考訳(メタデータ) (2020-04-24T08:55:37Z) - AvatarMe: Realistically Renderable 3D Facial Reconstruction
"in-the-wild" [105.28776215113352]
AvatarMe は、1つの "in-the-wild" 画像から高精細度で光リアルな3D顔を再構成できる最初の方法である。
6K解像度の3D画像を1枚の低解像度画像から再現する。
論文 参考訳(メタデータ) (2020-03-30T22:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。