論文の概要: SurFhead: Affine Rig Blending for Geometrically Accurate 2D Gaussian Surfel Head Avatars
- arxiv url: http://arxiv.org/abs/2410.11682v1
- Date: Tue, 15 Oct 2024 15:19:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:03:13.987956
- Title: SurFhead: Affine Rig Blending for Geometrically Accurate 2D Gaussian Surfel Head Avatars
- Title(参考訳): SurFhead:Affine Rig Blending for Geometriclycurate 2D Gaussian Surfel Head Avatars
- Authors: Jaeseong Lee, Taewoong Kang, Marcel C. Bühler, Min-Jung Kim, Sungwon Hwang, Junha Hyung, Hyojin Jang, Jaegul Choo,
- Abstract要約: SurFheadは、RGBビデオから2Dガウス波のサーベルを使って、トリガ可能な頭部形状を再構築する。
SurFheadは、極端なポーズであっても、通常と画像の両方の高忠実なレンダリングを保証する。
- 参考スコア(独自算出の注目度): 30.284559845818116
- License:
- Abstract: Recent advancements in head avatar rendering using Gaussian primitives have achieved significantly high-fidelity results. Although precise head geometry is crucial for applications like mesh reconstruction and relighting, current methods struggle to capture intricate geometric details and render unseen poses due to their reliance on similarity transformations, which cannot handle stretch and shear transforms essential for detailed deformations of geometry. To address this, we propose SurFhead, a novel method that reconstructs riggable head geometry from RGB videos using 2D Gaussian surfels, which offer well-defined geometric properties, such as precise depth from fixed ray intersections and normals derived from their surface orientation, making them advantageous over 3D counterparts. SurFhead ensures high-fidelity rendering of both normals and images, even in extreme poses, by leveraging classical mesh-based deformation transfer and affine transformation interpolation. SurFhead introduces precise geometric deformation and blends surfels through polar decomposition of transformations, including those affecting normals. Our key contribution lies in bridging classical graphics techniques, such as mesh-based deformation, with modern Gaussian primitives, achieving state-of-the-art geometry reconstruction and rendering quality. Unlike previous avatar rendering approaches, SurFhead enables efficient reconstruction driven by Gaussian primitives while preserving high-fidelity geometry.
- Abstract(参考訳): ガウスプリミティブを用いた頭部アバターレンダリングの最近の進歩は,高い忠実度を達成している。
メッシュ再構成やリライティングのような応用には正確な頭部幾何学が不可欠であるが、現在の手法では、幾何の詳細な変形に不可欠なストレッチやせん断変換を扱えない類似性変換に依存するため、複雑な幾何学的詳細を捉え、目に見えないポーズを見せるのに苦労している。
この問題を解決するために,2次元ガウス波を用いたRGBビデオからトリガ可能な頭部形状を再構成する新しい手法であるSurFheadを提案する。
SurFheadは、古典的なメッシュベースの変形転送とアフィン変換補間を利用して、極端なポーズであっても、通常と画像の両方の高忠実なレンダリングを保証する。
SurFheadは精密な幾何学的変形を導入し、正常に影響を及ぼすものを含む変換の極性分解を通じてウェーブをブレンドする。
私たちの重要な貢献は、メッシュベースの変形のような古典的なグラフィックス技術と現代のガウス的プリミティブを融合させ、最先端の幾何学的再構成とレンダリング品質を達成することである。
従来のアバターレンダリングのアプローチとは異なり、SurFheadは高忠実度幾何を維持しながらガウス原始体によって駆動される効率的な再構成を可能にする。
関連論文リスト
- Geometry Field Splatting with Gaussian Surfels [23.412129038089326]
我々は、最近の研究で提案された不透明曲面の幾何学的場を利用して、体積密度に変換することができる。
ガウス核やウェーバを体積よりも幾何場に適応させ、不透明な固体の正確な再構成を可能にする。
広範に使用されているデータセット上で再構成された3次元表面の質が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-11-26T03:07:05Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - HR-NeuS: Recovering High-Frequency Surface Geometry via Neural Implicit
Surfaces [6.382138631957651]
我々は新しい暗黙表面再構成法であるHigh-Resolution NeuSを提案する。
HR-NeuSは大規模な再構成精度を維持しながら高周波表面形状を復元する。
我々は,DTUおよびBlendedMVSデータセットを用いた実験により,従来の手法と同等の精度で定性的に詳細かつ定量的な3次元測地を生成できることを実証した。
論文 参考訳(メタデータ) (2023-02-14T02:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。