論文の概要: SplArt: Articulation Estimation and Part-Level Reconstruction with 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.03594v1
- Date: Wed, 04 Jun 2025 05:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.174696
- Title: SplArt: Articulation Estimation and Part-Level Reconstruction with 3D Gaussian Splatting
- Title(参考訳): SplArt:3次元ガウススプラッティングによる構音推定と部分レベル再構成
- Authors: Shengjie Lin, Jiading Fang, Muhammad Zubair Irshad, Vitor Campagnolo Guizilini, Rares Andrei Ambrus, Greg Shakhnarovich, Matthew R. Walter,
- Abstract要約: SplArtは,2組のRGB画像から調音対象を再構成し,キネマティクスを推定する,自己教師型カテゴリー認識フレームワークである。
SplArtは幾何学的自己スーパービジョンを利用して、3Dアノテーションやカテゴリ固有の事前処理を必要とせずに、困難なシナリオに効果的に対処する。
確立された、新しく提案されたベンチマークの評価と、ハンドヘルドのRGBカメラを用いた実世界のシナリオへの応用は、SplArtの最先端のパフォーマンスと実世界の実用性を実証している。
- 参考スコア(独自算出の注目度): 15.098827709119087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing articulated objects prevalent in daily environments is crucial for applications in augmented/virtual reality and robotics. However, existing methods face scalability limitations (requiring 3D supervision or costly annotations), robustness issues (being susceptible to local optima), and rendering shortcomings (lacking speed or photorealism). We introduce SplArt, a self-supervised, category-agnostic framework that leverages 3D Gaussian Splatting (3DGS) to reconstruct articulated objects and infer kinematics from two sets of posed RGB images captured at different articulation states, enabling real-time photorealistic rendering for novel viewpoints and articulations. SplArt augments 3DGS with a differentiable mobility parameter per Gaussian, achieving refined part segmentation. A multi-stage optimization strategy is employed to progressively handle reconstruction, part segmentation, and articulation estimation, significantly enhancing robustness and accuracy. SplArt exploits geometric self-supervision, effectively addressing challenging scenarios without requiring 3D annotations or category-specific priors. Evaluations on established and newly proposed benchmarks, along with applications to real-world scenarios using a handheld RGB camera, demonstrate SplArt's state-of-the-art performance and real-world practicality. Code is publicly available at https://github.com/ripl/splart.
- Abstract(参考訳): 拡張現実やバーチャルリアリティー、ロボット工学の分野では、日常的に普及している音声オブジェクトの再構築が不可欠である。
しかし、既存の手法ではスケーラビリティの限界(3Dの監督や高価なアノテーションを必要とする)、堅牢性の問題(局所的な最適性に影響を受けやすい)、欠点のレンダリング(速度の低下やフォトリアリズム)に直面する。
SplArtは3Dガウス・スプラッティング(3DGS)を利用した自己教師型カテゴリー認識フレームワークで,異なる調音状態で撮影された2組のポーズRGB画像から運動学を推定し,新しい視点と調音のリアルタイムな光リアルレンダリングを可能にする。
SplArtは3DGSをガウスごとに微分可能なモビリティパラメータで拡張し、洗練された部分セグメンテーションを実現する。
多段階最適化手法は, 復元, 部分分割, 調音推定を段階的に処理し, 頑健性と精度を著しく向上させる。
SplArtは幾何学的自己スーパービジョンを利用して、3Dアノテーションやカテゴリ固有の事前処理を必要とせずに、困難なシナリオに効果的に対処する。
確立された、新しく提案されたベンチマークの評価と、ハンドヘルドのRGBカメラを用いた実世界のシナリオへの応用は、SplArtの最先端のパフォーマンスと実世界の実用性を実証している。
コードはhttps://github.com/ripl/splart.comで公開されている。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - GSemSplat: Generalizable Semantic 3D Gaussian Splatting from Uncalibrated Image Pairs [33.74118487769923]
GSemSplatは,3次元ガウスに関連付けられた意味表現を,シーンごとの最適化や高密度画像収集,キャリブレーションなしに学習するフレームワークである。
本研究では,2次元空間における領域固有の意味的特徴と文脈認識的意味的特徴を両立させる二重機能アプローチを用いる。
論文 参考訳(メタデータ) (2024-12-22T09:06:58Z) - SparseGrasp: Robotic Grasping via 3D Semantic Gaussian Splatting from Sparse Multi-View RGB Images [125.66499135980344]
オープンボキャブラリ型ロボットグリップシステムであるSparseGraspを提案する。
SparseGraspはスパースビューのRGBイメージで効率的に動作し、シーン更新を高速に処理する。
SparseGraspは, 高速化と適応性の両方の観点から, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-03T03:56:01Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。