論文の概要: AHA! Animating Human Avatars in Diverse Scenes with Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2511.09827v1
- Date: Fri, 14 Nov 2025 01:11:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.511067
- Title: AHA! Animating Human Avatars in Diverse Scenes with Gaussian Splatting
- Title(参考訳): AHA! ガウススプラッティングによる異種シーンにおける人間のアバターのアニメーション
- Authors: Aymen Mir, Jian Wang, Riza Alp Guler, Chuan Guo, Gerard Pons-Moll, Bing Zhou,
- Abstract要約: 3次元ガウススプラッティング(3DGS)を用いた3次元シーンにおける人間アニメーションのための新しい枠組みを提案する。
ヒトとシーンをガウスとして表現することで、我々のアプローチは3Dシーンと相互作用する人間の幾何学的に一貫性のある自由視点レンダリングを可能にする。
我々は,Scannet++とSuperSplatライブラリのシーンに対するアプローチと,疎密で高密度なマルチビュー・ヒューマンキャプチャから再構成したアバターに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 26.560838721184435
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel framework for animating humans in 3D scenes using 3D Gaussian Splatting (3DGS), a neural scene representation that has recently achieved state-of-the-art photorealistic results for novel-view synthesis but remains under-explored for human-scene animation and interaction. Unlike existing animation pipelines that use meshes or point clouds as the underlying 3D representation, our approach introduces the use of 3DGS as the 3D representation to the problem of animating humans in scenes. By representing humans and scenes as Gaussians, our approach allows for geometry-consistent free-viewpoint rendering of humans interacting with 3D scenes. Our key insight is that the rendering can be decoupled from the motion synthesis and each sub-problem can be addressed independently, without the need for paired human-scene data. Central to our method is a Gaussian-aligned motion module that synthesizes motion without explicit scene geometry, using opacity-based cues and projected Gaussian structures to guide human placement and pose alignment. To ensure natural interactions, we further propose a human-scene Gaussian refinement optimization that enforces realistic contact and navigation. We evaluate our approach on scenes from Scannet++ and the SuperSplat library, and on avatars reconstructed from sparse and dense multi-view human capture. Finally, we demonstrate that our framework allows for novel applications such as geometry-consistent free-viewpoint rendering of edited monocular RGB videos with new animated humans, showcasing the unique advantage of 3DGS for monocular video-based human animation.
- Abstract(参考訳): 本稿では、3Dガウススティング(3DGS)を用いた3Dシーンにおける人間のアニメーションのための新しいフレームワークについて述べる。
メッシュやポイントクラウドを基礎となる3D表現として使用している既存のアニメーションパイプラインとは異なり,本手法では3DGSを3D表現として使用することにより,シーン内の人間をアニメーションする問題に対処する。
ヒトとシーンをガウスとして表現することで、我々のアプローチは3Dシーンと相互作用する人間の幾何学的に一貫性のある自由視点レンダリングを可能にする。
我々の重要な洞察は、レンダリングはモーション合成から切り離すことができ、各サブプロブレムは、ペアの人間シーンデータを必要としない独立して対処できるということです。
提案手法の中心となるのは、不透明度に基づくキューと投影されたガウス構造を用いて、人間の配置とアライメントを誘導し、明示的なシーン形状を伴わずに動きを合成するガウスアライメント・モーション・モジュールである。
自然の相互作用を確実にするために,現実的な接触とナビゲーションを強制する人間シーンのガウス改良最適化を提案する。
我々は,Scannet++とSuperSplatライブラリのシーンに対するアプローチと,疎密で高密度なマルチビュー・ヒューマンキャプチャから再構成したアバターに対するアプローチを評価した。
最後に、本フレームワークは、新しいアニメーション人間による編集されたモノクロRGBビデオの幾何学的一貫した自由視点レンダリングなどの新しい応用を可能にし、3DGSの独特な利点をモノクロビデオベースの人間アニメーションに適用できることを実証する。
関連論文リスト
- Dream, Lift, Animate: From Single Images to Animatable Gaussian Avatars [20.807609264738865]
一つの画像からアニマタブルな3Dアバターを再構築する新しいフレームワークであるDream, Lift, Animate(DLA)を紹介する。
これは、マルチビュー生成、3Dガウスリフト、および3Dガウスのポーズ対応UV空間マッピングを活用することで実現される。
提案手法は,アクターHQと4D-Dressのデータセットに対して,知覚品質と測光精度の両方において,最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2025-07-21T18:20:09Z) - Animating the Uncaptured: Humanoid Mesh Animation with Video Diffusion Models [71.78723353724493]
ヒューマノイド文字のアニメーションは、様々なグラフィックス応用において不可欠である。
入力された静的な3次元ヒューマノイドメッシュの4次元アニメーションシーケンスを合成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-20T10:00:22Z) - Gaussians-to-Life: Text-Driven Animation of 3D Gaussian Splatting Scenes [49.26872036160368]
ガウススティング表現における高品質な3Dシーンの一部をアニメーションする手法を提案する。
従来の作業とは対照的に、複雑な既存の3Dシーンのリアルなアニメーションを可能にする。
論文 参考訳(メタデータ) (2024-11-28T16:01:58Z) - iHuman: Instant Animatable Digital Humans From Monocular Videos [16.98924995658091]
モノクロビデオからアニマタブルな3Dデジタル人間を作るための,迅速かつシンプルで効果的な方法を提案する。
この研究は、人間の身体の正確な3Dメッシュ型モデリングの必要性を達成し、説明します。
我々の手法は(訓練時間の観点から)最も近い競合相手よりも桁違いに高速である。
論文 参考訳(メタデータ) (2024-07-15T18:51:51Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - GenZI: Zero-Shot 3D Human-Scene Interaction Generation [39.9039943099911]
我々は3次元人間とシーンの相互作用を生成するための最初のゼロショットアプローチであるGenZIを提案する。
GenZIの鍵となるのは、大きな視覚言語モデル(VLM)による相互作用先行の蒸留です。
既存の学習ベースのアプローチとは対照的に、GenZIはキャプチャされた3Dインタラクションデータに対する従来のニーズを回避している。
論文 参考訳(メタデータ) (2023-11-29T15:40:11Z) - Generating Continual Human Motion in Diverse 3D Scenes [51.90506920301473]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z) - Unsupervised Volumetric Animation [54.52012366520807]
非剛性変形物体の教師なし3次元アニメーションのための新しい手法を提案する。
本手法は,RGBビデオのみからオブジェクトの3次元構造とダイナミックスを学習する。
我々は,本モデルを用いて,単一ボリュームまたは少数の画像からアニマタブルな3Dオブジェクトを得ることができることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。