論文の概要: GRMM: Real-Time High-Fidelity Gaussian Morphable Head Model with Learned Residuals
- arxiv url: http://arxiv.org/abs/2509.02141v1
- Date: Tue, 02 Sep 2025 09:43:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.98608
- Title: GRMM: Real-Time High-Fidelity Gaussian Morphable Head Model with Learned Residuals
- Title(参考訳): GRMM:学習残差を用いたリアルタイム高忠実型ガウス型ヘッドモデル
- Authors: Mohit Mendiratta, Mayur Deshmukh, Kartik Teotia, Vladislav Golyanik, Adam Kortylewski, Christian Theobalt,
- Abstract要約: 3D Morphable Models (3DMM)は、再構成、アニメーション、AR/VRのための制御可能な顔形状と表情の編集を可能にする。
GRMMは,ベース3DMMに残留形状と外観成分を付加した最初のフルヘッド型ガウス型3次元形状モデルである。
GRMMは、インタラクティブなリアルタイムパフォーマンスを提供しながら、忠実さと表現精度において最先端の手法を超越している。
- 参考スコア(独自算出の注目度): 78.67749748078813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Morphable Models (3DMMs) enable controllable facial geometry and expression editing for reconstruction, animation, and AR/VR, but traditional PCA-based mesh models are limited in resolution, detail, and photorealism. Neural volumetric methods improve realism but remain too slow for interactive use. Recent Gaussian Splatting (3DGS) based facial models achieve fast, high-quality rendering but still depend solely on a mesh-based 3DMM prior for expression control, limiting their ability to capture fine-grained geometry, expressions, and full-head coverage. We introduce GRMM, the first full-head Gaussian 3D morphable model that augments a base 3DMM with residual geometry and appearance components, additive refinements that recover high-frequency details such as wrinkles, fine skin texture, and hairline variations. GRMM provides disentangled control through low-dimensional, interpretable parameters (e.g., identity shape, facial expressions) while separately modelling residuals that capture subject- and expression-specific detail beyond the base model's capacity. Coarse decoders produce vertex-level mesh deformations, fine decoders represent per-Gaussian appearance, and a lightweight CNN refines rasterised images for enhanced realism, all while maintaining 75 FPS real-time rendering. To learn consistent, high-fidelity residuals, we present EXPRESS-50, the first dataset with 60 aligned expressions across 50 identities, enabling robust disentanglement of identity and expression in Gaussian-based 3DMMs. Across monocular 3D face reconstruction, novel-view synthesis, and expression transfer, GRMM surpasses state-of-the-art methods in fidelity and expression accuracy while delivering interactive real-time performance.
- Abstract(参考訳): 3D Morphable Models (3DMM)は、再構成、アニメーション、AR/VRのための制御可能な顔形状と表情の編集を可能にするが、従来のPCAベースのメッシュモデルは解像度、ディテール、フォトリアリズムに制限されている。
神経体積法はリアリズムを改善するが、対話的な使用には遅すぎる。
最近のガウススプラッティング(3DGS)ベースの顔モデルは高速で高品質なレンダリングを実現するが、それでも表現制御に先立ってメッシュベースの3DMMにのみ依存する。
GRMMは,ベース3DMMに残留形状と外観成分を付加した最初のフルヘッド型ガウス型3Dフォーマブルモデルであり,シワ,皮膚の微細なテクスチャ,ヘアラインの変化といった高周波の細部を復元する付加的改良である。
GRMMは、低次元の解釈可能なパラメータ(例えば、アイデンティティー形状、表情)を通して不整合制御を提供する一方で、基本モデルの能力を超えた主観的および表現特有の詳細をキャプチャする残差を個別にモデル化する。
粗いデコーダは頂点レベルのメッシュ変形を生成し、微細なデコーダはガウス単位の外観を表し、軽量なCNNはラスタライズされた画像を改良してリアリズムを強化し、全て75FPSのリアルタイムレンダリングを維持している。
一貫性のある高忠実度残差を学習するために,50個のアイデンティティに60個の配列を持つ最初のデータセット EXPRESS-50 を提案する。
モノラルな3D顔の再構成、新しいビュー合成、表現伝達、GRMMは、インタラクティブなリアルタイムパフォーマンスを提供しながら、忠実さと表現精度において最先端の手法を超越している。
関連論文リスト
- EAvatar: Expression-Aware Head Avatar Reconstruction with Generative Geometry Priors [31.25607301318426]
高忠実度アバター再構成は、AR/VR、ゲーム、マルチメディアコンテンツ作成において重要な役割を果たす。
近年の3Dガウススプラッティング(3DGS)の進歩は、実時間レンダリング能力を持つ複雑な幾何学をモデル化する上で有効であることを示した。
本稿では,表現認識と変形認識の両方が可能な頭部再構成のための3DGSベースの新しいフレームワークEAvatarを提案する。
論文 参考訳(メタデータ) (2025-08-19T05:56:00Z) - MoGaFace: Momentum-Guided and Texture-Aware Gaussian Avatars for Consistent Facial Geometry [3.0373043721834163]
MoGaFaceは、顔の形状とテクスチャ特性を継続的に洗練する、3Dヘッドアバターモデリングフレームワークである。
MoGaFaceは高忠実な頭部アバター再構成を実現し、新規な合成品質を著しく向上させる。
論文 参考訳(メタデータ) (2025-08-02T06:25:51Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - MaGS: Reconstructing and Simulating Dynamic 3D Objects with Mesh-adsorbed Gaussian Splatting [27.081250446161114]
本稿では,この課題に対処するために,メッシュ吸着型ガウス平滑化法(MaGS)を提案する。
MaGSは、3Dガウス人がメッシュの近くで歩き回ることを制約し、相互に吸着されたメッシュ-ガウスの3D表現を生成する。
このような表現は、3Dガウスのレンダリングの柔軟性とメッシュの構造的特性の両方を利用する。
論文 参考訳(メタデータ) (2024-06-03T17:59:51Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - CRM: Single Image to 3D Textured Mesh with Convolutional Reconstruction
Model [37.75256020559125]
本稿では,高忠実度フィードフォワード画像から3次元画像生成モデルを提案する。
ネットワーク設計に幾何学的事前情報を統合する必要性を強調した。
我々のモデルは、テストタイムの最適化なしに、画像から10秒で高忠実なテクスチャメッシュを提供する。
論文 参考訳(メタデータ) (2024-03-08T04:25:29Z) - Training and Tuning Generative Neural Radiance Fields for Attribute-Conditional 3D-Aware Face Generation [66.21121745446345]
本稿では,特定の属性ラベルを入力として統合した条件付きGNeRFモデルを提案する。
提案手法は, 事前学習した3次元顔モデルに基づいており, 条件付き正規化フローモジュールをトレーニングするためのTraining as Init and fidelity for Tuning (TRIOT) 方式を提案する。
本実験は,ビューの整合性を高めた高品質な編集を行う能力を示すとともに,本モデルの有効性を実証するものである。
論文 参考訳(メタデータ) (2022-08-26T10:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。