論文の概要: REArtGS: Reconstructing and Generating Articulated Objects via 3D Gaussian Splatting with Geometric and Motion Constraints
- arxiv url: http://arxiv.org/abs/2503.06677v2
- Date: Wed, 12 Mar 2025 02:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 12:14:24.696471
- Title: REArtGS: Reconstructing and Generating Articulated Objects via 3D Gaussian Splatting with Geometric and Motion Constraints
- Title(参考訳): REArtGS:幾何学的・運動的制約による3次元ガウス散乱による人工物体の再構成と生成
- Authors: Di Wu, Liu Liu, Zhou Linli, Anran Huang, Liangtu Song, Qiaojun Yu, Qi Wu, Cewu Lu,
- Abstract要約: REArtGSは、幾何学的および運動的制約を3Dガウスプリミティブに導入する新しいフレームワークである。
我々は,3次元ガウス多様体の変形可能場を定式化対象の運動構造に拘束し,未知の状態における表面メッシュの教師なし生成を実現する。
- 参考スコア(独自算出の注目度): 48.80178020541189
- License:
- Abstract: Articulated objects, as prevalent entities in human life, their 3D representations play crucial roles across various applications. However, achieving both high-fidelity textured surface reconstruction and dynamic generation for articulated objects remains challenging for existing methods. In this paper, we present REArtGS, a novel framework that introduces additional geometric and motion constraints to 3D Gaussian primitives, enabling high-quality textured surface reconstruction and generation for articulated objects. Specifically, given multi-view RGB images of arbitrary two states of articulated objects, we first introduce an unbiased Signed Distance Field (SDF) guidance to regularize Gaussian opacity fields, enhancing geometry constraints and improving surface reconstruction quality. Then we establish deformable fields for 3D Gaussians constrained by the kinematic structures of articulated objects, achieving unsupervised generation of surface meshes in unseen states. Extensive experiments on both synthetic and real datasets demonstrate our approach achieves high-quality textured surface reconstruction for given states, and enables high-fidelity surface generation for unseen states. Codes will be released within the next four months and the project website is at https://sites.google.com/view/reartgs/home.
- Abstract(参考訳): 人工物は、人間の生活において一般的な存在として、様々な用途において重要な役割を担っている。
しかし, 従来の手法では, 高忠実なテクスチャ表面再構成と動的生成の両立が困難である。
本稿では,3次元ガウスプリミティブに幾何学的および運動的制約を付加する新しいフレームワークであるREArtGSについて述べる。
具体的には、任意の2つのオブジェクトの状態の多視点RGB画像が与えられた場合、まず、ガウスの不透明度場を正規化し、幾何制約を強化し、表面再構成品質を向上させるために、非バイアス符号付き距離場(SDF)ガイダンスを導入する。
次に,3次元ガウス多様体の変形可能場を定式化し,非可視状態における表面メッシュの教師なし生成を実現する。
合成データと実データの両方に対する大規模な実験により、与えられた状態に対する高品質なテクスチャ化表面再構成を実現し、目に見えない状態に対する高忠実な表面生成を可能にした。
コードは今後4ヶ月以内にリリースされ、プロジェクトのWebサイトはhttps://sites.google.com/view/reartgs/home.comにある。
関連論文リスト
- Gaussian Object Carver: Object-Compositional Gaussian Splatting with surfaces completion [16.379647695019308]
3Dシーンの再構築はコンピュータビジョンの基本的な問題である。
本稿では,Gaussian Object Carver (GOC)を紹介した。
GOCは、高品質で柔軟な再構築を実現するために、モノクラー幾何学の先行と多視点幾何学の正規化に富んだ3Dガウススプラッティング(GS)を利用する。
論文 参考訳(メタデータ) (2024-12-03T01:34:39Z) - DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - DynaSurfGS: Dynamic Surface Reconstruction with Planar-based Gaussian Splatting [13.762831851385227]
本研究では,動的シナリオのフォトリアリスティックレンダリングと高忠実な表面再構成を実現するためにDynaSurfGSを提案する。
このフレームワークはまず、4Dニューラルボクセルのガウスの特徴をプラナーベースのガウススプラッティングに組み込んで、表面の正確な再構築を容易にする。
また、ARAP(as-rigid-as-possible)制約を組み込んで、時間ステップ間の3Dガウシアン地区の局所的な剛性を維持する。
論文 参考訳(メタデータ) (2024-08-26T01:36:46Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Ghost on the Shell: An Expressive Representation of General 3D Shapes [97.76840585617907]
リアルな素材と照明で高速な物理ベースのレンダリングを可能にするので、メッシュは魅力的だ。
近年の3次元形状の再構成と統計的モデリングの研究は、メッシュをトポロジカルに非フレキシブルであると批判している。
我々は水密面上の多様体符号距離場を定義することにより開曲面をパラメータ化する。
G-Shellは、非水密メッシュ再構築および生成タスクにおける最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-10-23T17:59:52Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。