論文の概要: STG-Avatar: Animatable Human Avatars via Spacetime Gaussian
- arxiv url: http://arxiv.org/abs/2510.22140v1
- Date: Sat, 25 Oct 2025 03:23:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.833605
- Title: STG-Avatar: Animatable Human Avatars via Spacetime Gaussian
- Title(参考訳): STG-Avatar:時空ガウシアンによるアニマタブルヒトアバター
- Authors: Guangan Jiang, Tianzi Zhang, Dong Li, Zhenjun Zhao, Haoang Li, Mingrui Li, Hongyu Wang,
- Abstract要約: 提案するSTG-Avatarは,高忠実性アニマタブルヒトアバター再構成のための3DGSベースのフレームワークである。
LBSは、グローバルポーズ変換を駆動することで、リアルタイムの骨格制御を可能にする。
本手法は, 復元品質と運転効率の両面で, 最先端のベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 14.962899842675304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic animatable human avatars from monocular videos are crucial for advancing human-robot interaction and enhancing immersive virtual experiences. While recent research on 3DGS-based human avatars has made progress, it still struggles with accurately representing detailed features of non-rigid objects (e.g., clothing deformations) and dynamic regions (e.g., rapidly moving limbs). To address these challenges, we present STG-Avatar, a 3DGS-based framework for high-fidelity animatable human avatar reconstruction. Specifically, our framework introduces a rigid-nonrigid coupled deformation framework that synergistically integrates Spacetime Gaussians (STG) with linear blend skinning (LBS). In this hybrid design, LBS enables real-time skeletal control by driving global pose transformations, while STG complements it through spacetime adaptive optimization of 3D Gaussians. Furthermore, we employ optical flow to identify high-dynamic regions and guide the adaptive densification of 3D Gaussians in these regions. Experimental results demonstrate that our method consistently outperforms state-of-the-art baselines in both reconstruction quality and operational efficiency, achieving superior quantitative metrics while retaining real-time rendering capabilities. Our code is available at https://github.com/jiangguangan/STG-Avatar
- Abstract(参考訳): モノクロビデオからのリアルなアニマタブルな人間のアバターは、人間とロボットの相互作用を推進し、没入的な仮想体験を高めるために不可欠である。
最近の3DGSベースのヒトアバターの研究は進展しているが、非剛体物体(例えば衣服の変形)と動的領域(例えば、急速に動く手足)の詳細な特徴を正確に表現することに苦慮している。
これらの課題に対処するため、3DGSをベースとした高忠実アニマタブルなヒトアバター再構築のためのフレームワークSTG-Avatarを提案する。
具体的には、時空間ガウス(STG)と線形ブレンドスキン(LBS)を相乗的に統合する剛性非剛性結合変形フレームワークを導入する。
このハイブリッド設計では、LBSはグローバルポーズ変換を駆動することでリアルタイムの骨格制御を可能にし、STGは3次元ガウスの時空適応最適化によってそれを補完する。
さらに,高流動領域の同定と,これらの領域における3次元ガウスの適応密度化の導出に光学的流れを用いる。
実験結果から,提案手法は再現品質と操作効率の両面で,常に最先端のベースラインを上回り,リアルタイムレンダリング能力を維持しつつ,優れた定量化を実現していることが示された。
私たちのコードはhttps://github.com/jiangguangan/STG-Avatarで利用可能です。
関連論文リスト
- Parametric Gaussian Human Model: Generalizable Prior for Efficient and Realistic Human Avatar Modeling [32.480049588166544]
フォトとアニマタブルな人間のアバターは、バーチャル/拡張現実、テレプレゼンス、デジタルエンターテイメントの鍵となる。
本稿では,人間を3DGSに統合する汎用的で効率的なフレームワークであるParametric Gaussian Human Model(PGHM)を提案する。
実験の結果、PGHMは最適化からスクラッチまでの手法よりもはるかに効率が良く、1被写体あたり約20分で同等の視覚的品質のアバターを生産できることがわかった。
論文 参考訳(メタデータ) (2025-06-07T03:53:30Z) - 2DGS-Avatar: Animatable High-fidelity Clothed Avatar via 2D Gaussian Splatting [10.935483693282455]
本研究では,2DGS-Avatarを提案する。
提案手法は,ポーズによって駆動され,リアルタイムでレンダリングされるアバターを生成する。
3DGSベースの手法と比較して、我々の2DGS-Avatarは、高速なトレーニングとレンダリングの利点を保ちつつ、詳細な、ダイナミック、フォトリアリスティックな外観を捉えている。
論文 参考訳(メタデータ) (2025-03-04T09:57:24Z) - Sequential Gaussian Avatars with Hierarchical Motion Context [7.6736633105043515]
SMPLで駆動される3DGSのヒトアバターは、フィット中のポーズから外観への複雑なマッピングにより、外観の細部を捉えるのに苦労する。
階層的な動きコンテキストに基づいて,人間のアバターをより良くモデル化するために,明示的な3DGS表現を探索するSeqAvatarを提案する。
提案手法は3DGSによるアプローチよりも優れており,最新のNeRFモデルよりも桁違いに高速に人間のアバターをレンダリングする。
論文 参考訳(メタデータ) (2024-11-25T04:05:19Z) - Topology-aware Human Avatars with Semantically-guided Gaussian Splatting [18.421585526595944]
本研究では, セマンティクスを組み込んだ3次元ガウス, 骨格駆動型剛性変形, および非剛性布の動的変形を用いて, フォトリアリスティックな人間のアバターを創出するSG-GSを提案する。
我々は,人間のアバター変形にトポロジカルおよび幾何学的アソシエーションを統合する3Dネットワークを採用している。
論文 参考訳(メタデータ) (2024-08-19T02:58:20Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z) - ASH: Animatable Gaussian Splats for Efficient and Photoreal Human Rendering [62.81677824868519]
本稿では,動的人間をリアルタイムに写実的にレンダリングするためのアニマタブルなガウススプラッティング手法を提案する。
我々は、被服をアニマタブルな3Dガウスとしてパラメータ化し、画像空間に効率よく切り込み、最終的なレンダリングを生成する。
我々は、ポーズ制御可能なアバターの競合手法を用いてASHをベンチマークし、我々の手法が既存のリアルタイムメソッドよりも大きなマージンで優れており、オフラインメソッドよりも同等またはそれ以上の結果を示すことを示した。
論文 参考訳(メタデータ) (2023-12-10T17:07:37Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。