論文の概要: ArchitectHead: Continuous Level of Detail Control for 3D Gaussian Head Avatars
- arxiv url: http://arxiv.org/abs/2510.05488v1
- Date: Tue, 07 Oct 2025 01:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.048396
- Title: ArchitectHead: Continuous Level of Detail Control for 3D Gaussian Head Avatars
- Title(参考訳): ArchitectHead: 3Dガウスヘッドアバターの詳細な制御の継続的なレベル
- Authors: Peizhi Yan, Rabab Ward, Qiang Tang, Shan Du,
- Abstract要約: 既存の3DGSベースのアバターは通常、数万のガウス点(ガウス点)に依存している。
ArchitectHead"は、LODの継続的な制御をサポートする3Dガウスのヘッドアバターを作成するための最初のフレームワークである。
- 参考スコア(独自算出の注目度): 10.90511005285902
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has enabled photorealistic and real-time rendering of 3D head avatars. Existing 3DGS-based avatars typically rely on tens of thousands of 3D Gaussian points (Gaussians), with the number of Gaussians fixed after training. However, many practical applications require adjustable levels of detail (LOD) to balance rendering efficiency and visual quality. In this work, we propose "ArchitectHead", the first framework for creating 3D Gaussian head avatars that support continuous control over LOD. Our key idea is to parameterize the Gaussians in a 2D UV feature space and propose a UV feature field composed of multi-level learnable feature maps to encode their latent features. A lightweight neural network-based decoder then transforms these latent features into 3D Gaussian attributes for rendering. ArchitectHead controls the number of Gaussians by dynamically resampling feature maps from the UV feature field at the desired resolutions. This method enables efficient and continuous control of LOD without retraining. Experimental results show that ArchitectHead achieves state-of-the-art (SOTA) quality in self and cross-identity reenactment tasks at the highest LOD, while maintaining near SOTA performance at lower LODs. At the lowest LOD, our method uses only 6.2\% of the Gaussians while the quality degrades moderately (L1 Loss +7.9\%, PSNR --0.97\%, SSIM --0.6\%, LPIPS Loss +24.1\%), and the rendering speed nearly doubles.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、3Dヘッドアバターのフォトリアリスティックおよびリアルタイムレンダリングを可能にした。
既存の3DGSベースのアバターは通常数万のガウス点(ガウス点)に依存しており、訓練後にガウス点が固定されている。
しかし、多くの実用アプリケーションはレンダリング効率と視覚的品質のバランスをとるために調整可能な詳細レベル(LOD)を必要とする。
本研究では,LODの連続制御をサポートする3次元ガウスヘッドアバター作成のための最初のフレームワークである「ArchitectHead」を提案する。
我々のキーとなる考え方は、ガウスを2次元UV特徴空間でパラメータ化し、多層学習可能な特徴写像からなるUV特徴場を提案し、それらの潜在特徴を符号化することである。
軽量なニューラルネットワークベースのデコーダは、これらの潜在機能をレンダリング用の3Dガウス属性に変換する。
ArchitectHeadは、望んだ解像度でUV機能フィールドから機能マップを動的に再サンプリングすることで、ガウスの数を制御します。
本発明の方法は、再訓練することなく、LODの効率的かつ連続的な制御を可能にする。
実験結果から,ArchitectHeadは低LODにおけるSOTAに近い性能を維持しつつ,最高LODにおける自己およびクロスアイデンティティの再現タスクにおけるSOTA(State-of-the-art)品質を実現していることがわかった。
最も低いLODでは、ガウスの6.2\%しか使用せず、品質は適度に低下する(L1 Loss +7.9\%、PSNR --0.97\%、SSIM --0.6\%、LPIPS Loss +24.1\%)。
関連論文リスト
- SHeaP: Self-Supervised Head Geometry Predictor Learned via 2D Gaussians [55.813327441814344]
モノクロ画像とビデオからの頭部の3次元再構成は、多くの視覚的応用の根底にある。
従来の手法は、豊富な2Dビデオから自己監督的な方法で学習しようとしてきた。
SHeaP (Self-supervised Head Geometry Predictor Learned through 2D Gaussian)を提案する。
論文 参考訳(メタデータ) (2025-04-16T17:55:02Z) - GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - GraphAvatar: Compact Head Avatars with GNN-Generated 3D Gaussians [14.420981606586237]
本稿では,Graph Neural Networks (GNN) を用いて頭部アバターの3次元ガウス生成を行う GraphAvatar 手法を提案する。
提案手法では3次元ガウスモデルの代わりにGNNモデルを格納することができ,ストレージオーバーヘッドを10MBに抑えることができる。
我々は、GraphAvatarの利点を実証するための総合的な実験を行い、既存の視覚的忠実度とストレージ消費の手法を超越した。
論文 参考訳(メタデータ) (2024-12-18T16:05:40Z) - MixedGaussianAvatar: Realistically and Geometrically Accurate Head Avatar via Mixed 2D-3D Gaussian Splatting [38.16397253003339]
高忠実度3Dヘッドアバターの再構築は、仮想現実などの様々な応用において重要である。
最近の3次元ガウススティング(3DGS)に基づく手法は、トレーニングとレンダリングの効率を著しく向上させる。
そこで我々は,MixedGaussian Avatarという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T11:17:25Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - Compact 3D Gaussian Representation for Radiance Field [14.729871192785696]
本研究では,3次元ガウス点数を削減するための学習可能なマスク戦略を提案する。
また、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2023-11-22T20:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。