論文の概要: OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models
- arxiv url: http://arxiv.org/abs/2301.07673v1
- Date: Wed, 18 Jan 2023 17:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 15:04:27.823388
- Title: OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models
- Title(参考訳): OnePose++:CADモデルなしでキーポイントフリーのワンショットオブジェクトポス推定
- Authors: Xingyi He, Jiaming Sun, Yuang Wang, Di Huang, Hujun Bao, Xiaowei Zhou
- Abstract要約: OnePoseは繰り返し可能なイメージキーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
2D-3Dマッチングネットワークは、クエリ画像と再構成されたポイントクラウドモデルとの間の2D-3D対応を直接確立する。
- 参考スコア(独自算出の注目度): 51.68715543630427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new method for object pose estimation without CAD models. The
previous feature-matching-based method OnePose has shown promising results
under a one-shot setting which eliminates the need for CAD models or
object-specific training. However, OnePose relies on detecting repeatable image
keypoints and is thus prone to failure on low-textured objects. We propose a
keypoint-free pose estimation pipeline to remove the need for repeatable
keypoint detection. Built upon the detector-free feature matching method LoFTR,
we devise a new keypoint-free SfM method to reconstruct a semi-dense
point-cloud model for the object. Given a query image for object pose
estimation, a 2D-3D matching network directly establishes 2D-3D correspondences
between the query image and the reconstructed point-cloud model without first
detecting keypoints in the image. Experiments show that the proposed pipeline
outperforms existing one-shot CAD-model-free methods by a large margin and is
comparable to CAD-model-based methods on LINEMOD even for low-textured objects.
We also collect a new dataset composed of 80 sequences of 40 low-textured
objects to facilitate future research on one-shot object pose estimation. The
supplementary material, code and dataset are available on the project page:
https://zju3dv.github.io/onepose_plus_plus/.
- Abstract(参考訳): CADモデルを使わずにオブジェクトのポーズ推定を行う新しい手法を提案する。
以前の機能マッチングベースのOnePoseは、CADモデルやオブジェクト固有のトレーニングの必要性を排除したワンショット設定で、有望な結果を示している。
しかし、OnePoseは繰り返し可能な画像キーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
検出不要な特徴マッチング法であるLoFTRをベースとして,物体の半密度点クラウドモデルを再構築するキーポイントフリーSfM法を考案した。
オブジェクトポーズ推定のためのクエリ画像が与えられると、2d-3dマッチングネットワークは、画像内のキーポイントを最初に検出することなく、クエリ画像と再構成されたポイントクラウドモデルとの2d-3d対応を直接確立する。
実験により,提案したパイプラインは既存の一発CADモデルフリー手法を大きなマージンで上回り,低テクスチャオブジェクトであってもLINEMOD上のCADモデルベース手法に匹敵する性能を示した。
また、40個の低テクスチャオブジェクトからなる80のシーケンスからなる新しいデータセットを収集し、ワンショットオブジェクトポーズ推定の今後の研究を促進する。
追加資料、コード、データセットはプロジェクトのページで入手できる。
関連論文リスト
- FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - FoundPose: Unseen Object Pose Estimation with Foundation Features [11.32559845631345]
FoundPoseは、単一のRGB画像から見えないオブジェクトを6Dポーズで推定するモデルベースの手法である。
この方法は、オブジェクトやタスク固有のトレーニングを必要とせずに、3Dモデルを使って、新しいオブジェクトを素早くオンボードできる。
論文 参考訳(メタデータ) (2023-11-30T18:52:29Z) - GigaPose: Fast and Robust Novel Object Pose Estimation via One Correspondence [64.77224422330737]
GigaPoseは、RGB画像におけるCADベースの新しいオブジェクトポーズ推定のための高速で堅牢で正確な方法である。
提案手法では,通常の3次元ではなく,2自由度空間でテンプレートをサンプリングする。
最先端の精度を実現し、既存の精錬手法とシームレスに統合することができる。
論文 参考訳(メタデータ) (2023-11-23T18:55:03Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - OnePose: One-Shot Object Pose Estimation without CAD Models [30.307122037051126]
OnePoseはCADモデルに依存しておらず、インスタンスやカテゴリ固有のネットワークトレーニングなしで任意のカテゴリのオブジェクトを処理できる。
OnePoseは視覚的なローカライゼーションからアイデアを導き、オブジェクトのスパースSfMモデルを構築するために、オブジェクトの単純なRGBビデオスキャンしか必要としない。
既存の視覚的ローカライゼーション手法の低速な実行を緩和するため,クエリ画像中の2D関心点とSfMモデルの3Dポイントとを直接マッチングするグラフアテンションネットワークを提案する。
論文 参考訳(メタデータ) (2022-05-24T17:59:21Z) - Templates for 3D Object Pose Estimation Revisited: Generalization to New
Objects and Robustness to Occlusions [79.34847067293649]
本稿では,新しい物体を認識でき,RGB画像の3次元ポーズを部分閉塞下でも推定できる手法を提案する。
ローカルオブジェクト表現を学習するために、トレーニングオブジェクトの小さなセットに依存します。
LINEMOD と Occlusion-LINEMOD のデータセットを再トレーニングせずに一般化を示すのはこれが初めてである。
論文 参考訳(メタデータ) (2022-03-31T17:50:35Z) - OSOP: A Multi-Stage One Shot Object Pose Estimation Framework [35.89334617258322]
対象物検出のための新しいワンショット手法と,対象物に対する訓練を必要としない6DoFポーズ推定を提案する。
テスト時には、ターゲット画像とテクスチャ化された3Dクエリモデルを入力する。
The method on LineMOD, Occlusion, Homebrewed, YCB-V and TLESS datasets。
論文 参考訳(メタデータ) (2022-03-29T13:12:00Z) - 3D Object Detection and Pose Estimation of Unseen Objects in Color
Images with Local Surface Embeddings [35.769234123059086]
本研究では, 画像中のオブジェクトの3次元ポーズを, テクスチャのないCADモデルでのみ検出し, 推定する手法を提案する。
我々のアプローチはディープラーニングと3D幾何を組み合わせており、CADモデルと入力画像とを一致させるために、局所的な3D幾何の埋め込みに依存している。
我々は,Mask-RCNNをクラスに依存しない方法で,再学習せずに新しい物体を検出できることを示す。
論文 参考訳(メタデータ) (2020-10-08T15:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。