論文の概要: GS2POSE: Marry Gaussian Splatting to 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2510.16777v1
- Date: Sun, 19 Oct 2025 10:02:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.138464
- Title: GS2POSE: Marry Gaussian Splatting to 6D Object Pose Estimation
- Title(参考訳): GS2POSE:マーリー・ガウシアンによる6次元オブジェクトポス推定
- Authors: Junbo Li, Weimin Yuan, Yinuo Wang, Yue Zeng, Shihao Shu, Cai Meng, Xiangzhi Bai,
- Abstract要約: 6次元オブジェクトのポーズ推定のための新しいアプローチであるGS2POSEを提案する。
GS2POSEは、バンドル調整(BA)の原理に着想を得たポーズ回帰アルゴリズムを定式化する
GS2POSEは,T-LESS,LineMod-Occlusion,LineModデータセットにおいて,それぞれ1.4%,2.8%,2.5%の精度向上を示した。
- 参考スコア(独自算出の注目度): 12.402238708921493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 6D pose estimation of 3D objects is a fundamental task in computer vision, and current research typically predicts the 6D pose by establishing correspondences between 2D image features and 3D model features. However, these methods often face difficulties with textureless objects and varying illumination conditions. To overcome these limitations, we propose GS2POSE, a novel approach for 6D object pose estimation. GS2POSE formulates a pose regression algorithm inspired by the principles of Bundle Adjustment (BA). By leveraging Lie algebra, we extend the capabilities of 3DGS to develop a pose-differentiable rendering pipeline, which iteratively optimizes the pose by comparing the input image to the rendered image. Additionally, GS2POSE updates color parameters within the 3DGS model, enhancing its adaptability to changes in illumination. Compared to previous models, GS2POSE demonstrates accuracy improvements of 1.4\%, 2.8\% and 2.5\% on the T-LESS, LineMod-Occlusion and LineMod datasets, respectively.
- Abstract(参考訳): 3Dオブジェクトの正確な6Dポーズ推定はコンピュータビジョンの基本課題であり、現在の研究では2D画像特徴と3Dモデル特徴との対応性を確立することで6Dポーズを予測している。
しかし、これらの手法は、テクスチャのない物体や様々な照明条件でしばしば困難に直面している。
これらの制約を克服するために,新しい6次元オブジェクトポーズ推定手法であるGS2POSEを提案する。
GS2POSEは、バンドル調整(BA)の原理にインスパイアされたポーズ回帰アルゴリズムを定式化する。
リー代数を利用して、3DGSの能力を拡張してポーズ微分可能なレンダリングパイプラインを開発し、入力画像と描画画像を比較することでポーズを反復的に最適化する。
さらに、GS2POSEは3DGSモデル内の色パラメータを更新し、照明の変化への適応性を高める。
従来のモデルと比較すると、GS2POSEはT-LESS、LineMod-Occlusion、LineModデータセットでそれぞれ1.4\%、2.8\%、2.5\%の精度向上を示している。
関連論文リスト
- Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - GS2Pose: Two-stage 6D Object Pose Estimation Guided by Gaussian Splatting [4.465134753953128]
本稿では,GS2Pose と呼ばれる新しい物体の高精度でロバストな6次元ポーズ推定法を提案する。
GS2Poseは3次元ガウススプラッティングを導入することで,高品質CADモデルを必要とせずに再構成結果を利用することができる。
GS2Poseのコードは、間もなくGitHubでリリースされる。
論文 参考訳(メタデータ) (2024-11-06T10:07:46Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。