論文の概要: RigGS: Rigging of 3D Gaussians for Modeling Articulated Objects in Videos
- arxiv url: http://arxiv.org/abs/2503.16822v1
- Date: Fri, 21 Mar 2025 03:27:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:56.897328
- Title: RigGS: Rigging of 3D Gaussians for Modeling Articulated Objects in Videos
- Title(参考訳): RigGS: 3Dガウシアンによるビデオの人工物体のモデリング
- Authors: Yuxin Yao, Zhi Deng, Junhui Hou,
- Abstract要約: RigGSは3次元ガウス表現と骨格に基づく運動表現を利用して動的オブジェクトをモデル化する新しいパラダイムである。
提案手法は,オブジェクトに対する現実的な新しいアクションを容易に生成し,高品質なレンダリングを実現する。
- 参考スコア(独自算出の注目度): 50.37136267234771
- License:
- Abstract: This paper considers the problem of modeling articulated objects captured in 2D videos to enable novel view synthesis, while also being easily editable, drivable, and re-posable. To tackle this challenging problem, we propose RigGS, a new paradigm that leverages 3D Gaussian representation and skeleton-based motion representation to model dynamic objects without utilizing additional template priors. Specifically, we first propose skeleton-aware node-controlled deformation, which deforms a canonical 3D Gaussian representation over time to initialize the modeling process, producing candidate skeleton nodes that are further simplified into a sparse 3D skeleton according to their motion and semantic information. Subsequently, based on the resulting skeleton, we design learnable skin deformations and pose-dependent detailed deformations, thereby easily deforming the 3D Gaussian representation to generate new actions and render further high-quality images from novel views. Extensive experiments demonstrate that our method can generate realistic new actions easily for objects and achieve high-quality rendering.
- Abstract(参考訳): 本稿では,2次元ビデオで捉えた音声オブジェクトをモデリングすることで,新たなビュー合成を可能にするとともに,編集が容易で,乾燥可能で,再使用可能な問題について考察する。
この課題に対処するために,3次元ガウス表現と骨格に基づく運動表現を併用した新たなパラダイムであるRigGSを提案する。
具体的には、まず、時間とともに標準3Dガウス表現を変形させ、モデリングプロセスを初期化し、その動きと意味情報に基づいてより単純化された候補スケルトンノードを生成するスケルトン対応ノード制御変形を提案する。
得られた骨格に基づいて、学習可能な皮膚の変形とポーズ依存の詳細な変形を設計し、3次元ガウス表現を変形し、新しいアクションを生成し、新しいビューからさらに高品質な画像を描画する。
大規模な実験により,本手法はオブジェクトに対する現実的な新しいアクションを容易に生成し,高品質なレンダリングを実現することができることが示された。
関連論文リスト
- Template-free Articulated Gaussian Splatting for Real-time Reposable Dynamic View Synthesis [21.444265403717015]
本稿では,ビデオから動的オブジェクトのスケルトンモデルを自動的に検出する手法を提案する。
スーパーポイントを剛性部分として扱うことで、直感的な手がかりによって基盤となる骨格モデルを発見し、キネマティックモデルを用いて最適化することができる。
再使用可能な3Dオブジェクトの取得において,本手法の有効性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-12-07T07:35:09Z) - Sketch-guided Cage-based 3D Gaussian Splatting Deformation [19.39701978836869]
3D Gaussian Splatting (GS)は最も有望な3D表現の1つである。
本稿では,3次元GSモデルの形状を直感的に修正できる3次元GS変形システムを提案する。
論文 参考訳(メタデータ) (2024-11-19T02:18:19Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - OneTo3D: One Image to Re-editable Dynamic 3D Model and Video Generation [0.0]
編集可能なダイナミック3Dモデルとビデオ生成のための1つの画像は、単一の画像の研究領域を3D表現や画像の3D再構成に変換する新しい方向と変化である。
編集可能な3Dモデルを生成し,対象とする連続時間無制限の3Dビデオを生成するために,単一の画像を使用する方法と理論であるOneTo3Dを提案する。
論文 参考訳(メタデータ) (2024-05-10T15:44:11Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - 3D Geometry-aware Deformable Gaussian Splatting for Dynamic View Synthesis [49.352765055181436]
動的ビュー合成のための3次元幾何学的変形可能なガウススメッティング法を提案する。
提案手法は,動的ビュー合成と3次元動的再構成を改良した3次元形状認識変形モデリングを実現する。
論文 参考訳(メタデータ) (2024-04-09T12:47:30Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。