論文の概要: TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling
- arxiv url: http://arxiv.org/abs/2505.05672v1
- Date: Thu, 08 May 2025 22:10:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.095462
- Title: TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling
- Title(参考訳): TeGA:高分解能ダイナミックヘッドモデリングのための集合空間ガウスアバター
- Authors: Gengyan Li, Paulo Gotardo, Timo Bolkart, Stephan Garbin, Kripasindhu Sarkar, Abhimitra Meka, Alexandros Lattas, Thabo Beeler,
- Abstract要約: フォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
本稿では,最先端の3Dヘッドアバターモデルを提案する。
- 参考スコア(独自算出の注目度): 52.87836237427514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse volumetric reconstruction and rendering via 3D Gaussian splatting have recently enabled animatable 3D head avatars that are rendered under arbitrary viewpoints with impressive photorealism. Today, such photoreal avatars are seen as a key component in emerging applications in telepresence, extended reality, and entertainment. Building a photoreal avatar requires estimating the complex non-rigid motion of different facial components as seen in input video images; due to inaccurate motion estimation, animatable models typically present a loss of fidelity and detail when compared to their non-animatable counterparts, built from an individual facial expression. Also, recent state-of-the-art models are often affected by memory limitations that reduce the number of 3D Gaussians used for modeling, leading to lower detail and quality. To address these problems, we present a new high-detail 3D head avatar model that improves upon the state of the art, largely increasing the number of 3D Gaussians and modeling quality for rendering at 4K resolution. Our high-quality model is reconstructed from multiview input video and builds on top of a mesh-based 3D morphable model, which provides a coarse deformation layer for the head. Photoreal appearance is modelled by 3D Gaussians embedded within the continuous UVD tangent space of this mesh, allowing for more effective densification where most needed. Additionally, these Gaussians are warped by a novel UVD deformation field to capture subtle, localized motion. Our key contribution is the novel deformable Gaussian encoding and overall fitting procedure that allows our head model to preserve appearance detail, while capturing facial motion and other transient high-frequency features such as skin wrinkling.
- Abstract(参考訳): 3Dガウシアンスプラッティングによる疎体積再構成とレンダリングにより、任意の視点で撮影できるアニマタブルな3Dヘッドアバターが可能になった。
現在、こうしたフォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
光実アバターの構築には、入力されたビデオ画像で見られるように、異なる顔成分の複雑な非剛性運動を推定する必要がある。
また、最近の最先端モデルは、しばしばメモリ制限の影響を受け、モデリングに使用される3Dガウスの数が減少し、ディテールと品質が低下する。
これらの問題に対処するため、我々は最先端の3Dヘッドアバターモデルを提案し、4K解像度でレンダリングする3Dガウスの数が大幅に増加し、モデリング品質が向上した。
我々の高品質なモデルはマルチビュー入力ビデオから再構成され、メッシュベースの3D形態素モデルの上に構築され、頭部に粗い変形層を提供する。
フォトリアルな外観は、このメッシュの連続UVDタンジェント空間に埋め込まれた3Dガウスアンによってモデル化され、最も必要な場所でより効率的な密度化を可能にする。
さらに、これらのガウスは、微妙で局所的な動きを捉えるために、新しいUVD変形場によって警告される。
顔の動きや皮膚のしわのような過渡的な高周波の特徴を捉えながら、頭部モデルで外観の細部を保存できる新規な変形可能なガウス符号化と全体的な適合手順が、我々の重要な貢献である。
関連論文リスト
- ScaffoldAvatar: High-Fidelity Gaussian Avatars with Patch Expressions [49.34398022152462]
局所的に定義した表情と3Dガウススプラッティングを組み合わせて,超高忠実度,表現性,フォトリアリスティックな3D頭部アバターを作成することを提案する。
特に、パッチベースの幾何学的3次元顔モデルを用いて、パッチ表現を抽出し、それらを局所的なダイナミックスキンの外観や動きに変換する方法を学ぶ。
我々は,高解像度の3Kトレーニング画像に対して,高画質な結果とより高速なコンバージェンスを得るために,カラーベースデンシフィケーションとプログレッシブトレーニングを採用している。
論文 参考訳(メタデータ) (2025-07-14T17:59:03Z) - UMA: Ultra-detailed Human Avatars via Multi-level Surface Alignment [55.0783220713185]
多視点ビデオから鮮明なダイナミック性とフォトリアリスティックな外観を持つアニマタブルな人間のアバターモデルを学ぶことは、コンピュータグラフィックスとビジョンにおいて重要な基礎研究課題である。
本稿では,基本的な2次元ビデオポイントトラッカーからのガイダンスを用いて,潜時変形モデルを提案し,アニマタブルキャラクタの3次元変形を監督する。
提案手法は,先行技術に比べてレンダリング品質と幾何学的精度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2025-06-02T15:42:33Z) - RealityAvatar: Towards Realistic Loose Clothing Modeling in Animatable 3D Gaussian Avatars [4.332718737928592]
本研究では,高忠実度デジタルヒューマンモデリングのための効率的なフレームワークであるRealAvatarを提案する。
動作トレンドモジュールと潜在骨エンコーダを組み込むことで,ポーズ依存的な変形と衣服行動の時間的変動をモデル化する。
特に非剛性領域における動的ヒト再建における構造的忠実度と知覚的品質を著しく向上させる。
論文 参考訳(メタデータ) (2025-04-02T09:59:12Z) - 3D$^2$-Actor: Learning Pose-Conditioned 3D-Aware Denoiser for Realistic Gaussian Avatar Modeling [37.11454674584874]
ポーズ条件付き3D対応ヒューマンモデリングパイプラインである3D$2$-Actorを導入する。
実験により、3D$2$-アクターは高忠実度アバターモデリングにおいて優れ、新しいポーズに頑健に一般化することを示した。
論文 参考訳(メタデータ) (2024-12-16T09:37:52Z) - AniGS: Animatable Gaussian Avatar from a Single Image with Inconsistent Gaussian Reconstruction [26.82525451095629]
本稿では,不整合画像の3次元再構成のためのロバストな手法を提案し,推論中のリアルタイムレンダリングを実現する。
再建問題を4次元課題として再検討し, 4次元ガウススプラッティングを用いた効率的な3次元モデリング手法を提案する。
実験により,本手法は3次元人体アバターの光実写・リアルタイムアニメーションを実現する。
論文 参考訳(メタデータ) (2024-12-03T18:55:39Z) - GPHM: Gaussian Parametric Head Model for Monocular Head Avatar Reconstruction [47.113910048252805]
高忠実度3D人間の頭部アバターは、VR/AR、デジタル人間、映画製作に不可欠である。
近年の進歩は、変形可能な顔モデルを利用して、様々なアイデンティティと表現を表現するアニメーションヘッドアバターを生成している。
本稿では,人間の頭部の複雑さを正確に表現するために,三次元ガウスを用いた3次元ガウスパラメトリックヘッドモデルを提案する。
論文 参考訳(メタデータ) (2024-07-21T06:03:11Z) - PSAvatar: A Point-based Shape Model for Real-Time Head Avatar Animation with 3D Gaussian Splatting [17.78639236586134]
PSAvatarは、アニマタブルヘッドアバター作成のための新しいフレームワークである。
詳細な表現と高忠実度レンダリングに3D Gaussian を使用している。
PSAvatarは多種多様な被験者の高忠実度頭部アバターを再構築でき、リアルタイムでアバターをアニメーションできることを示す。
論文 参考訳(メタデータ) (2024-01-23T16:40:47Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。