論文の概要: PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching
- arxiv url: http://arxiv.org/abs/2304.01382v1
- Date: Mon, 3 Apr 2023 21:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 16:18:24.365851
- Title: PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching
- Title(参考訳): PoseMatcher: 深部特徴マッチングによる1ショット6Dオブジェクトポス推定
- Authors: Pedro Castro, Tae-Kyun Kim
- Abstract要約: 本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
- 参考スコア(独自算出の注目度): 51.142988196855484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating the pose of an unseen object is the goal of the challenging
one-shot pose estimation task. Previous methods have heavily relied on feature
matching with great success. However, these methods are often inefficient and
limited by their reliance on pre-trained models that have not be designed
specifically for pose estimation. In this paper we propose PoseMatcher, an
accurate model free one-shot object pose estimator that overcomes these
limitations. We create a new training pipeline for object to image matching
based on a three-view system: a query with a positive and negative templates.
This simple yet effective approach emulates test time scenarios by cheaply
constructing an approximation of the full object point cloud during training.
To enable PoseMatcher to attend to distinct input modalities, an image and a
pointcloud, we introduce IO-Layer, a new attention layer that efficiently
accommodates self and cross attention between the inputs. Moreover, we propose
a pruning strategy where we iteratively remove redundant regions of the target
object to further reduce the complexity and noise of the network while
maintaining accuracy. Finally we redesign commonly used pose refinement
strategies, zoom and 2D offset refinements, and adapt them to the one-shot
paradigm. We outperform all prior one-shot pose estimation methods on the
Linemod and YCB-V datasets as well achieve results rivaling recent
instance-level methods. The source code and models are available at
https://github.com/PedroCastro/PoseMatcher.
- Abstract(参考訳): 見えないオブジェクトのポーズを推定することは、挑戦的なワンショットポーズ推定タスクの目標である。
これまでの手法は機能マッチングと大きな成功に大きく依存していた。
しかし、これらの手法は、特にポーズ推定のために設計されていない事前訓練されたモデルに依存しているため、しばしば非効率で制限される。
本稿では,これらの制約を克服したモデルフリーワンショットオブジェクトポーズ推定器PoseMatcherを提案する。
3つのビューシステムに基づいて、オブジェクトとイメージのマッチングのための新しいトレーニングパイプラインを作成しました。
このシンプルで効果的なアプローチは、トレーニング中の完全なオブジェクトポイントクラウドの近似を安価に構築することで、テスト時間のシナリオをエミュレートする。
本稿では,PoseMatcherが入力モード,イメージ,ポイントクラウドの異なる部分への参加を可能にするために,入力間の自己と相互の注意を効率的に収容する新しい注意層であるIO-Layerを導入する。
さらに,対象オブジェクトの冗長領域を反復的に除去し,精度を維持しつつ,ネットワークの複雑さやノイズをさらに低減するプルーニング戦略を提案する。
最後に、ポーズリファインメント戦略、ズームと2Dオフセットリファインメントを再設計し、それらをワンショットパラダイムに適応させました。
linemod と ycb-v のデータセット上で,事前のワンショットポーズ推定手法を上回り,最近のインスタンスレベル手法に匹敵する結果を得る。
ソースコードとモデルはhttps://github.com/pedrocastro/posematcherで入手できる。
関連論文リスト
- DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - GS-Pose: Category-Level Object Pose Estimation via Geometric and
Semantic Correspondence [5.500735640045456]
カテゴリーレベルのポーズ推定は、コンピュータビジョンやロボット工学における多くの潜在的な応用において難しい課題である。
本稿では,事前学習した基礎モデルから得られる幾何学的特徴と意味的特徴の両方を活用することを提案する。
これは、セマンティックな特徴がオブジェクトのテクスチャや外観に対して堅牢であるため、以前のメソッドよりもトレーニングするデータを大幅に少なくする。
論文 参考訳(メタデータ) (2023-11-23T02:35:38Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models [51.68715543630427]
OnePoseは繰り返し可能なイメージキーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
2D-3Dマッチングネットワークは、クエリ画像と再構成されたポイントクラウドモデルとの間の2D-3D対応を直接確立する。
論文 参考訳(メタデータ) (2023-01-18T17:47:13Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。