論文の概要: GS-Pose: Cascaded Framework for Generalizable Segmentation-based 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2403.10683v1
- Date: Fri, 15 Mar 2024 21:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 22:24:30.278055
- Title: GS-Pose: Cascaded Framework for Generalizable Segmentation-based 6D Object Pose Estimation
- Title(参考訳): GS-Pose: 一般化可能なセグメンテーションに基づく6次元オブジェクトマップ推定のためのカスケードフレームワーク
- Authors: Dingding Cai, Janne Heikkilä, Esa Rahtu,
- Abstract要約: GS-Poseは、オブジェクトの6Dポーズの位置と推定のためのエンドツーエンドフレームワークである。
GS-Poseは、入力画像中のオブジェクトの位置を推定し、検索手法を用いて初期6Dポーズを推定し、レンダリング・アンド・コンペア法でポーズを精製することで順次動作する。
市販のツールチェーンや携帯電話などのコモディティハードウェアを使用して、データベースに追加される新しいオブジェクトをキャプチャすることができる。
- 参考スコア(独自算出の注目度): 23.724077890247834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces GS-Pose, an end-to-end framework for locating and estimating the 6D pose of objects. GS-Pose begins with a set of posed RGB images of a previously unseen object and builds three distinct representations stored in a database. At inference, GS-Pose operates sequentially by locating the object in the input image, estimating its initial 6D pose using a retrieval approach, and refining the pose with a render-and-compare method. The key insight is the application of the appropriate object representation at each stage of the process. In particular, for the refinement step, we utilize 3D Gaussian splatting, a novel differentiable rendering technique that offers high rendering speed and relatively low optimization time. Off-the-shelf toolchains and commodity hardware, such as mobile phones, can be used to capture new objects to be added to the database. Extensive evaluations on the LINEMOD and OnePose-LowTexture datasets demonstrate excellent performance, establishing the new state-of-the-art. Project page: https://dingdingcai.github.io/gs-pose.
- Abstract(参考訳): 本稿では,オブジェクトの6Dポーズの位置と推定のためのエンドツーエンドフレームワークであるGS-Poseを紹介する。
GS-Poseは、以前は目に見えないオブジェクトの配置されたRGBイメージから始まり、3つの異なる表現をデータベースに格納する。
推論において、GS-Poseは、入力画像中のオブジェクトの位置を推定し、検索手法を用いて初期6Dポーズを推定し、レンダリング・アンド・コンペア法でポーズを精算することにより順次動作する。
重要な洞察は、プロセスの各段階で適切なオブジェクト表現を適用することである。
特に,3次元ガウススプラッティング(3D Gaussian splatting)は,高いレンダリング速度と比較的低い最適化時間を実現する新しい微分可能レンダリング技術である。
市販のツールチェーンや携帯電話などのコモディティハードウェアを使用して、データベースに追加される新しいオブジェクトをキャプチャすることができる。
LINEMODとOnePose-LowTextureデータセットの大規模な評価は優れたパフォーマンスを示し、新しい最先端技術を確立している。
プロジェクトページ: https://dingcai.github.io/gs-pose
関連論文リスト
- FoundPose: Unseen Object Pose Estimation with Foundation Features [9.831905040413512]
FoundPoseは、単一のRGB画像から見えない剛体物体の6次元ポーズ推定法である。
この方法は、オブジェクトの3Dモデルが利用可能であるが、オブジェクト固有のトレーニングを必要としないと仮定する。
論文 参考訳(メタデータ) (2023-11-30T18:52:29Z) - GigaPose: Fast and Robust Novel Object Pose Estimation via One Correspondence [64.77224422330737]
GigaPoseは、RGB画像におけるCADベースの新しいオブジェクトポーズ推定のための高速で堅牢で正確な方法である。
提案手法では,通常の3次元ではなく,2自由度空間でテンプレートをサンプリングする。
最先端の精度を実現し、既存の精錬手法とシームレスに統合することができる。
論文 参考訳(メタデータ) (2023-11-23T18:55:03Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Depth-based 6DoF Object Pose Estimation using Swin Transformer [1.14219428942199]
オブジェクトの6Dポーズを正確に推定することは、ロボットの把握、自律運転、拡張現実など、多くのアプリケーションにとって不可欠である。
深度画像からの幾何情報のみを用いて正確な6次元ポーズ推定を行うSwinDePoseという新しいフレームワークを提案する。
LineModおよびOcclusion LineModデータセットの実験において、SwinDePoseは深度画像を用いた6Dオブジェクトのポーズ推定のための既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-03T18:25:07Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。