論文の概要: SurFhead: Affine Rig Blending for Geometrically Accurate 2D Gaussian Surfel Head Avatars
- arxiv url: http://arxiv.org/abs/2410.11682v1
- Date: Tue, 15 Oct 2024 15:19:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:03:13.987956
- Title: SurFhead: Affine Rig Blending for Geometrically Accurate 2D Gaussian Surfel Head Avatars
- Title(参考訳): SurFhead:Affine Rig Blending for Geometriclycurate 2D Gaussian Surfel Head Avatars
- Authors: Jaeseong Lee, Taewoong Kang, Marcel C. Bühler, Min-Jung Kim, Sungwon Hwang, Junha Hyung, Hyojin Jang, Jaegul Choo,
- Abstract要約: SurFheadは、RGBビデオから2Dガウス波のサーベルを使って、トリガ可能な頭部形状を再構築する。
SurFheadは、極端なポーズであっても、通常と画像の両方の高忠実なレンダリングを保証する。
- 参考スコア(独自算出の注目度): 30.284559845818116
- License:
- Abstract: Recent advancements in head avatar rendering using Gaussian primitives have achieved significantly high-fidelity results. Although precise head geometry is crucial for applications like mesh reconstruction and relighting, current methods struggle to capture intricate geometric details and render unseen poses due to their reliance on similarity transformations, which cannot handle stretch and shear transforms essential for detailed deformations of geometry. To address this, we propose SurFhead, a novel method that reconstructs riggable head geometry from RGB videos using 2D Gaussian surfels, which offer well-defined geometric properties, such as precise depth from fixed ray intersections and normals derived from their surface orientation, making them advantageous over 3D counterparts. SurFhead ensures high-fidelity rendering of both normals and images, even in extreme poses, by leveraging classical mesh-based deformation transfer and affine transformation interpolation. SurFhead introduces precise geometric deformation and blends surfels through polar decomposition of transformations, including those affecting normals. Our key contribution lies in bridging classical graphics techniques, such as mesh-based deformation, with modern Gaussian primitives, achieving state-of-the-art geometry reconstruction and rendering quality. Unlike previous avatar rendering approaches, SurFhead enables efficient reconstruction driven by Gaussian primitives while preserving high-fidelity geometry.
- Abstract(参考訳): ガウスプリミティブを用いた頭部アバターレンダリングの最近の進歩は,高い忠実度を達成している。
メッシュ再構成やリライティングのような応用には正確な頭部幾何学が不可欠であるが、現在の手法では、幾何の詳細な変形に不可欠なストレッチやせん断変換を扱えない類似性変換に依存するため、複雑な幾何学的詳細を捉え、目に見えないポーズを見せるのに苦労している。
この問題を解決するために,2次元ガウス波を用いたRGBビデオからトリガ可能な頭部形状を再構成する新しい手法であるSurFheadを提案する。
SurFheadは、古典的なメッシュベースの変形転送とアフィン変換補間を利用して、極端なポーズであっても、通常と画像の両方の高忠実なレンダリングを保証する。
SurFheadは精密な幾何学的変形を導入し、正常に影響を及ぼすものを含む変換の極性分解を通じてウェーブをブレンドする。
私たちの重要な貢献は、メッシュベースの変形のような古典的なグラフィックス技術と現代のガウス的プリミティブを融合させ、最先端の幾何学的再構成とレンダリング品質を達成することである。
従来のアバターレンダリングのアプローチとは異なり、SurFheadは高忠実度幾何を維持しながらガウス原始体によって駆動される効率的な再構成を可能にする。
関連論文リスト
- DreamMesh4D: Video-to-4D Generation with Sparse-Controlled Gaussian-Mesh Hybrid Representation [10.250715657201363]
本稿では,メッシュ表現と幾何スキン技術を組み合わせた新しいフレームワークDreamMesh4Dを紹介し,モノクロビデオから高品質な4Dオブジェクトを生成する。
我々の手法は現代のグラフィックパイプラインと互換性があり、3Dゲームや映画産業におけるその可能性を示している。
論文 参考訳(メタデータ) (2024-10-09T10:41:08Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - ND-SDF: Learning Normal Deflection Fields for High-Fidelity Indoor Reconstruction [50.07671826433922]
微妙な幾何を同時に復元し、異なる特徴を持つ領域をまたいだ滑らかさを保つことは自明ではない。
そこで我々は,ND-SDFを提案する。ND-SDFは,通常のシーンとそれ以前のシーンの角偏差を表す正規偏向場を学習する。
本手法は, 壁面や床面などのスムーズなテクスチャ構造を得るだけでなく, 複雑な構造の幾何学的詳細も保存する。
論文 参考訳(メタデータ) (2024-08-22T17:59:01Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - HR-NeuS: Recovering High-Frequency Surface Geometry via Neural Implicit
Surfaces [6.382138631957651]
我々は新しい暗黙表面再構成法であるHigh-Resolution NeuSを提案する。
HR-NeuSは大規模な再構成精度を維持しながら高周波表面形状を復元する。
我々は,DTUおよびBlendedMVSデータセットを用いた実験により,従来の手法と同等の精度で定性的に詳細かつ定量的な3次元測地を生成できることを実証した。
論文 参考訳(メタデータ) (2023-02-14T02:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。