論文の概要: SkeletonGaussian: Editable 4D Generation through Gaussian Skeletonization
- arxiv url: http://arxiv.org/abs/2602.04271v1
- Date: Wed, 04 Feb 2026 07:00:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.415202
- Title: SkeletonGaussian: Editable 4D Generation through Gaussian Skeletonization
- Title(参考訳): SkeletonGaussian: ガウスの骨格化による編集可能な4D生成
- Authors: Lifan Wu, Ruijie Zhu, Yubo Ai, Tianzhu Zhang,
- Abstract要約: SkeletonGaussianは、モノクロビデオ入力から編集可能な動的3Dガウシアンを生成するためのフレームワークである。
本手法は,スケルトンと細粒な非剛体運動によって特異的に駆動されるスパース剛体運動に運動を分解する。
- 参考スコア(独自算出の注目度): 25.299253655274594
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 4D generation has made remarkable progress in synthesizing dynamic 3D objects from input text, images, or videos. However, existing methods often represent motion as an implicit deformation field, which limits direct control and editability. To address this issue, we propose SkeletonGaussian, a novel framework for generating editable dynamic 3D Gaussians from monocular video input. Our approach introduces a hierarchical articulated representation that decomposes motion into sparse rigid motion explicitly driven by a skeleton and fine-grained non-rigid motion. Concretely, we extract a robust skeleton and drive rigid motion via linear blend skinning, followed by a hexplane-based refinement for non-rigid deformations, enhancing interpretability and editability. Experimental results demonstrate that SkeletonGaussian surpasses existing methods in generation quality while enabling intuitive motion editing, establishing a new paradigm for editable 4D generation. Project page: https://wusar.github.io/projects/skeletongaussian/
- Abstract(参考訳): 4D生成は、入力テキスト、画像、ビデオから動的3Dオブジェクトを合成する際、顕著な進歩を遂げた。
しかし、既存の手法はしばしば動きを暗黙の変形場として表現し、直接制御と編集性を制限する。
この問題に対処するために,単眼ビデオ入力から編集可能な動的3Dガウスアンを生成する新しいフレームワークであるSkeletonGaussianを提案する。
本手法では, 骨格と細粒な非剛体運動により, 運動を粗い剛体運動に分解する階層的調音表現を導入する。
具体的には, 頑健な骨格を抽出し, 線形ブレンドスキンにより剛性運動を駆動し, その後, 非剛性変形に対する六面体による改良を行い, 解釈性と編集性を高めた。
実験の結果,SkeletonGaussianは直感的な動作編集が可能であり,編集可能な4D生成のための新しいパラダイムを確立した。
プロジェクトページ: https://wusar.github.io/ projects/skeletongaussian/
関連論文リスト
- RigGS: Rigging of 3D Gaussians for Modeling Articulated Objects in Videos [50.37136267234771]
RigGSは3次元ガウス表現と骨格に基づく運動表現を利用して動的オブジェクトをモデル化する新しいパラダイムである。
提案手法は,オブジェクトに対する現実的な新しいアクションを容易に生成し,高品質なレンダリングを実現する。
論文 参考訳(メタデータ) (2025-03-21T03:27:07Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - Animatable Implicit Neural Representations for Creating Realistic
Avatars from Videos [63.16888987770885]
本稿では,マルチビュー映像からアニマタブルな人間モデルを構築することの課題について述べる。
線形ブレンドスキンアルゴリズムに基づくポーズ駆動変形場を提案する。
提案手法は,近年の人体モデリング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T17:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。