論文の概要: GTAvatar: Bridging Gaussian Splatting and Texture Mapping for Relightable and Editable Gaussian Avatars
- arxiv url: http://arxiv.org/abs/2512.09162v1
- Date: Tue, 09 Dec 2025 22:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.333934
- Title: GTAvatar: Bridging Gaussian Splatting and Texture Mapping for Relightable and Editable Gaussian Avatars
- Title(参考訳): GTAvatar:Gaussian Splatting and Texture Mapping for Relightable and Editable Gaussian Avatars
- Authors: Kelian Baert, Mae Younes, Francois Bourel, Marc Christie, Adnane Boukhayma,
- Abstract要約: 本稿では,UVテクスチャマッピングの直感性と2次元ガウス散乱の精度と忠実さを組み合わせた手法を提案する。
アバターの外観や形状を変えるための直感的な制御機能を提供し, 再現精度, ライティング結果の品質, および, 直感的な制御能力を示す。
- 参考スコア(独自算出の注目度): 15.497767924681254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Gaussian Splatting have enabled increasingly accurate reconstruction of photorealistic head avatars, opening the door to numerous applications in visual effects, videoconferencing, and virtual reality. This, however, comes with the lack of intuitive editability offered by traditional triangle mesh-based methods. In contrast, we propose a method that combines the accuracy and fidelity of 2D Gaussian Splatting with the intuitiveness of UV texture mapping. By embedding each canonical Gaussian primitive's local frame into a patch in the UV space of a template mesh in a computationally efficient manner, we reconstruct continuous editable material head textures from a single monocular video on a conventional UV domain. Furthermore, we leverage an efficient physically based reflectance model to enable relighting and editing of these intrinsic material maps. Through extensive comparisons with state-of-the-art methods, we demonstrate the accuracy of our reconstructions, the quality of our relighting results, and the ability to provide intuitive controls for modifying an avatar's appearance and geometry via texture mapping without additional optimization.
- Abstract(参考訳): ガウシアン・スプレイティングの最近の進歩は、光現実的な頭部アバターのより正確な再構築を可能にし、視覚効果、ビデオ会議、バーチャルリアリティーにおける多くの応用への扉を開いた。
しかしこれは、従来のトライアングルメッシュベースのメソッドによって提供される直感的な編集性が欠如しているためである。
一方,UVテクスチャマッピングの直感性と2次元ガウススメッティングの精度と忠実さを併用する手法を提案する。
テンプレートメッシュのUV空間のパッチに各標準ガウスプリミティブの局所フレームを効率よく埋め込むことにより、従来のUVドメイン上の単一の単分子ビデオから連続的に編集可能な材料ヘッドテクスチャを再構築する。
さらに,これらの固有材料マップのリライティングと編集を可能にするために,効率的な物理ベース反射率モデルを利用する。
最先端手法との比較により, 再現精度, ライティング結果の質, アバターの外観や形状を変更するための直感的な制御を, 余分な最適化を伴わずに行うことができることを示した。
関連論文リスト
- SVG-Head: Hybrid Surface-Volumetric Gaussians for High-Fidelity Head Reconstruction and Real-Time Editing [26.400512371742096]
Surface-Volumetric Gaussian Head Avatar (SVG-Head) は、FLAMEメッシュ上に有界な3Dガウスの幾何学を明示的にモデル化する新しいハイブリッド表現である。
3次元世界とテクスチャ空間の対応性をモデル化するため,メッシュ対応ガウスUVマッピング法を提案する。
NeRSembleデータセットの実験では、SVG-Headは高忠実なレンダリング結果を生成するだけでなく、ガウスの頭アバターの明示的なテクスチャ画像を得るための最初の方法でもある。
論文 参考訳(メタデータ) (2025-08-13T08:27:55Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - Texture-GS: Disentangling the Geometry and Texture for 3D Gaussian Splatting Editing [79.10630153776759]
3Dガウススプラッティングは画期的なアプローチとして登場し、高忠実度再構成とリアルタイムレンダリングの能力に注目が集まっている。
そこで我々は,テクスチャ-GSという新しいアプローチを提案し,その外観を3次元表面上にマッピングされた2次元テクスチャとして表現することで幾何学から切り離す。
提案手法は,高精細な外観の編集を容易にするだけでなく,コンシューマレベルのデバイス上でのリアルタイムレンダリングも実現している。
論文 参考訳(メタデータ) (2024-03-15T06:42:55Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。