論文の概要: GaussianHead: Impressive Head Avatars with Learnable Gaussian Diffusion
- arxiv url: http://arxiv.org/abs/2312.01632v2
- Date: Thu, 28 Dec 2023 05:54:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 21:34:49.058326
- Title: GaussianHead: Impressive Head Avatars with Learnable Gaussian Diffusion
- Title(参考訳): gaussianhead: 学習可能なgaussian diffusionを持つ印象的な頭部アバター
- Authors: Jie Wang, Jiu-Cheng Xie, Xianyan Li, Feng Xu, Chi-Man Pun, Hao Gao
- Abstract要約: 変形可能な3次元ガウスアンを頭部アバターの構成要素として利用するガウスアンヘッドについて述べる。
そこで本研究では,動的拡散を受けるために指定されたコアガウスを因子面にマッピングし,正規部分因子を取得する手法を提案する。
このアプローチは、特に歯、しわ、髪、さらには顔の毛穴のような微妙な構造の表現能力を向上させるために、軸方向のマッピングを利用する以前の慣習から逸脱している。
- 参考スコア(独自算出の注目度): 37.50920368655034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous head avatar methods have primarily relied on fixed-shape scene
primitives, lacking a balance between geometric topology, texture details, and
computational efficiency. Some hybrid neural network methods (e.g., planes and
voxels) gained advantages in fast rendering, but they all used axis-aligned
mappings to extract features explicitly, leading to issues of axis-aligned bias
and feature dilution. We present GaussianHead, which utilizes deformable 3D
Gaussians as building blocks for the head avatars. We propose a novel
methodology where the core Gaussians designated for rendering undergo dynamic
diffusion before being mapped onto a factor plane to acquire canonical
sub-factors. Through our factor blending strategy, the canonical features for
the core Gaussians used in rendering are obtained. This approach deviates from
the previous practice of utilizing axis-aligned mappings, especially improving
the representation capability of subtle structures such as teeth, wrinkles,
hair, and even facial pores. In comparison to state-of-the-art methods, our
unique primitive selection and factor decomposition in GaussianHead deliver
superior visual results while maintaining rendering performance (0.1 seconds
per frame). Code will released for research.
- Abstract(参考訳): 以前の頭部アバター法は主に固定形状のシーンプリミティブに依存しており、幾何学的トポロジー、テクスチャの詳細、計算効率のバランスが欠如している。
いくつかのハイブリッドニューラルネットワーク(平面やボクセルなど)は高速レンダリングの利点を享受したが、いずれも軸方向のマッピングを使用して特徴を明示的に抽出し、軸方向のバイアスや特徴の希釈の問題を引き起こした。
本稿では,変形可能な3次元ガウスを頭部アバターの構成要素として利用するガウスヘッドを提案する。
そこで本研究では,動的拡散を受けるために指定されたコアガウスを因子面にマッピングし,正規部分因子を取得する手法を提案する。
われわれの因子ブレンディング戦略により,レンダリングに使用されるガウスコアの標準的特徴が得られた。
このアプローチは、特に歯、しわ、髪、さらには顔の毛穴のような微妙な構造の表現能力を向上させるために、軸方向のマッピングを利用する以前の慣習から逸脱している。
最先端のメソッドと比較して、gaussianheadのユニークなプリミティブ選択とファクタ分解は、レンダリングパフォーマンスを維持しながら優れたビジュアル結果をもたらします(1フレームあたり0.1秒)。
コードは研究のためにリリースされる。
関連論文リスト
- Generalizable and Animatable Gaussian Head Avatar [50.34788590904843]
本稿では,GAGAvatar(Generalizable and Animatable Gaussian Head Avatar)を提案する。
我々は、1つの前方通過で1つの画像から3次元ガウスのパラメータを生成する。
提案手法は, 従来の手法と比較して, 再現性や表現精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-10T14:29:00Z) - GPHM: Gaussian Parametric Head Model for Monocular Head Avatar Reconstruction [47.113910048252805]
高忠実度3D人間の頭部アバターは、VR/AR、デジタル人間、映画製作に不可欠である。
近年の進歩は、変形可能な顔モデルを利用して、様々なアイデンティティと表現を表現するアニメーションヘッドアバターを生成している。
本稿では,人間の頭部の複雑さを正確に表現するために,三次元ガウスを用いた3次元ガウスパラメトリックヘッドモデルを提案する。
論文 参考訳(メタデータ) (2024-07-21T06:03:11Z) - Effective Rank Analysis and Regularization for Enhanced 3D Gaussian Splatting [33.01987451251659]
3D Gaussian Splatting(3DGS)は、高品質な3D再構成によるリアルタイムレンダリングが可能な有望な技術として登場した。
その可能性にもかかわらず、3DGSは針のようなアーティファクト、準最適ジオメトリー、不正確な正常など、課題に直面している。
正規化として有効なランクを導入し、ガウスの構造を制約する。
論文 参考訳(メタデータ) (2024-06-17T15:51:59Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - GaussianStyle: Gaussian Head Avatar via StyleGAN [64.85782838199427]
本稿では,3DGSのボリューム強度とStyleGANの強力な暗黙表現を統合する新しいフレームワークを提案する。
提案手法は, 再現性, 新規なビュー合成, アニメーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-01T18:14:42Z) - GAvatar: Animatable 3D Gaussian Avatars with Implicit Mesh Learning [60.33970027554299]
ガウススプラッティングは、明示的(メッシュ)と暗黙的(NeRF)の両方の3D表現の利点を利用する強力な3D表現として登場した。
本稿では,ガウススプラッティングを利用してテキスト記述から現実的なアニマタブルなアバターを生成する。
提案手法であるGAvatarは,テキストプロンプトのみを用いて,多様なアニマタブルアバターを大規模に生成する。
論文 参考訳(メタデータ) (2023-12-18T18:59:12Z) - HHAvatar: Gaussian Head Avatar with Dynamic Hairs [27.20228210350169]
動的ヘアモデリングを用いた高忠実度頭部アバターの3次元ガウスアン制御が可能なアバターを提案する。
提案手法は,2K解像度で超高忠実なレンダリング品質を実現するため,最先端のスパースビュー法よりも優れている。
論文 参考訳(メタデータ) (2023-12-05T11:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。