論文の概要: STAvatar: Soft Binding and Temporal Density Control for Monocular 3D Head Avatars Reconstruction
- arxiv url: http://arxiv.org/abs/2511.19854v1
- Date: Tue, 25 Nov 2025 02:35:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.242333
- Title: STAvatar: Soft Binding and Temporal Density Control for Monocular 3D Head Avatars Reconstruction
- Title(参考訳): STAvatar:単眼3次元頭部アバター再建のためのソフトボンディングと時間密度制御
- Authors: Jiankuo Zhao, Xiangyu Zhu, Zidu Wang, Zhen Lei,
- Abstract要約: 既存の3次元ガウス散乱に基づく手法は、通常、ガウス多様体を線形ブレンドスキニングのみを通してメッシュ三角形とモデル変形に結合する。
本研究では,(1)UV空間内のガウス特徴オフセットを学習するために,画像ベースと幾何学的先行情報の両方を活用するUV-Temporal Soft BindingフレームワークであるSTAvatarを提案する。
STAvatarは、特に細かな細部を捉え、しばしば閉鎖された領域を再構築する際に、最先端の再構築性能を達成する。
- 参考スコア(独自算出の注目度): 18.777422532112105
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconstructing high-fidelity and animatable 3D head avatars from monocular videos remains a challenging yet essential task. Existing methods based on 3D Gaussian Splatting typically bind Gaussians to mesh triangles and model deformations solely via Linear Blend Skinning, which results in rigid motion and limited expressiveness. Moreover, they lack specialized strategies to handle frequently occluded regions (e.g., mouth interiors, eyelids). To address these limitations, we propose STAvatar, which consists of two key components: (1) a UV-Adaptive Soft Binding framework that leverages both image-based and geometric priors to learn per-Gaussian feature offsets within the UV space. This UV representation supports dynamic resampling, ensuring full compatibility with Adaptive Density Control (ADC) and enhanced adaptability to shape and textural variations. (2) a Temporal ADC strategy, which first clusters structurally similar frames to facilitate more targeted computation of the densification criterion. It further introduces a novel fused perceptual error as clone criterion to jointly capture geometric and textural discrepancies, encouraging densification in regions requiring finer details. Extensive experiments on four benchmark datasets demonstrate that STAvatar achieves state-of-the-art reconstruction performance, especially in capturing fine-grained details and reconstructing frequently occluded regions. The code will be publicly available.
- Abstract(参考訳): モノクロビデオから高忠実でアニマブルな3Dヘッドアバターを再構築することは、依然として困難な作業だ。
既存の3次元ガウススプラッティングに基づく手法は、通常、リニアブレンドスキニングのみでのメッシュ三角形とモデル変形にガウスアンと結合し、剛体運動と限定表現性をもたらす。
さらに、頻繁な閉塞領域(例えば、口内、まぶた)を扱うための専門的な戦略が欠如している。
これらの制約に対処するために,(1) 画像ベースと幾何学的事前処理を併用したUV適応型ソフトバインディングフレームワークを用いて,UV空間内のガウス特徴のオフセットを学習する,2つの重要なコンポーネントからなるSTAvatarを提案する。
このUV表現は動的再サンプリングをサポートし、適応密度制御(ADC)との完全な互換性を確保し、形状やテクスチャの変化への適応性を向上させる。
2) テンポラルADC戦略は, まず, 構造的に類似したフレームをクラスタリングし, より標的となる密度化基準の計算を容易にする。
さらに、幾何学的およびテクスチャ的不一致を共同で捕捉し、より細かな詳細を必要とする領域における密度化を促進するために、クローン基準として、新しい融合パーセプチュアルエラーを導入する。
4つのベンチマークデータセットの大規模な実験により、STAvatarは最先端の再構築性能、特にきめ細かい詳細を捕捉し、頻繁に閉鎖される領域を再構築することに成功した。
コードは公開されます。
関連論文リスト
- Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - Visibility-Aware Densification for 3D Gaussian Splatting in Dynamic Urban Scenes [7.253732091582086]
VAD-GSは3DGSフレームワークで、挑戦的な都市景観の幾何学的復元に適したものだ。
本手法は, ボクセルに基づく可視性推論により, 信頼性の低い幾何学構造を同定する。
多様性を意識したビュー選択を通じて情報的支援ビューを選択し、パッチマッチングベースのステレオ再構築によって行方不明構造を復元する。
論文 参考訳(メタデータ) (2025-10-10T13:22:12Z) - D$^2$GS: Depth-and-Density Guided Gaussian Splatting for Stable and Accurate Sparse-View Reconstruction [73.61056394880733]
3D Gaussian Splatting (3DGS)は、3D表現を明示したリアルタイムかつ高忠実なノベルビュー合成(NVS)を可能にする。
疎視条件下では,カメラ近傍のガウス密度が過大な地域での過度適合と,ガウス範囲が不十分な遠隔地での過度適合の2つの重要な障害モードを同定する。
本稿では,奥行き案内型ドロップアウト戦略と距離認識型フィデリティ拡張モジュールという,2つの主要なコンポーネントからなる統合フレームワークD$2$GSを提案する。
論文 参考訳(メタデータ) (2025-10-09T17:59:49Z) - HBSplat: Robust Sparse-View Gaussian Reconstruction with Hybrid-Loss Guided Depth and Bidirectional Warping [11.035994094874141]
HBSplatは、堅牢な構造的キュー、仮想ビュー制約、隠蔽された領域補完をシームレスに統合するフレームワークである。
HBSplatは21.13dBのPSNRと0.189LPIPSを達成し、リアルタイム推論を維持している。
論文 参考訳(メタデータ) (2025-09-29T15:03:31Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Improving Gaussian Splatting with Localized Points Management [52.009874685460694]
局所的点管理(LPM)は、点加算と幾何校正の両方を最大限に必要としながら、これらの誤り貢献ゾーンを特定することができる。
LPMは特定されたゾーンに点密度を適用し、これらの領域の前にある点の不透明度をリセットし、不適切な点を修正する新しい機会を生み出す。
特に、LPMは静的3DGSとダイナミックなSpaceTimeGSの両方を改善して、リアルタイム速度を維持しながら最先端のレンダリング品質を実現している。
論文 参考訳(メタデータ) (2024-06-06T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。