論文の概要: LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2211.16290v3
- Date: Tue, 6 Feb 2024 14:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 21:30:20.104461
- Title: LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation
- Title(参考訳): locposenet:未発見のオブジェクトポーズ推定に先立つロバストな位置
- Authors: Chen Zhao, Yinlin Hu, Mathieu Salzmann
- Abstract要約: LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 69.70498875887611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object location prior is critical for the standard 6D object pose estimation
setting. The prior can be used to initialize the 3D object translation and
facilitate 3D object rotation estimation. Unfortunately, the object detectors
that are used for this purpose do not generalize to unseen objects. Therefore,
existing 6D pose estimation methods for unseen objects either assume the
ground-truth object location to be known or yield inaccurate results when it is
unavailable. In this paper, we address this problem by developing a method,
LocPoseNet, able to robustly learn location prior for unseen objects. Our
method builds upon a template matching strategy, where we propose to distribute
the reference kernels and convolve them with a query to efficiently compute
multi-scale correlations. We then introduce a novel translation estimator,
which decouples scale-aware and scale-robust features to predict different
object location parameters. Our method outperforms existing works by a large
margin on LINEMOD and GenMOP. We further construct a challenging synthetic
dataset, which allows us to highlight the better robustness of our method to
various noise sources. Our project website is at:
https://sailor-z.github.io/projects/3DV2024_LocPoseNet.html.
- Abstract(参考訳): 標準の6dオブジェクトポーズ推定設定では、オブジェクトの位置優先が重要となる。
前者は、3Dオブジェクトの変換を初期化し、3Dオブジェクトの回転推定を容易にするために使用できる。
残念ながら、この目的のために使用される物体検出器は、見えない物体に一般化しない。
したがって、未確認物体の既存の6次元ポーズ推定法は、地中真正物体の位置が未知であると仮定するか、不正確な結果が得られる。
本稿では,未確認オブジェクトに先立って位置を頑健に学習できるLocPoseNetという手法を開発し,この問題に対処する。
提案手法は,テンプレートマッチング戦略に基づいて,参照カーネルを分散し,マルチスケール相関を効率的に計算するためのクエリでそれらを畳み込む手法を提案する。
次に,異なる対象位置パラメータを予測するために,スケール認識機能とスケールロバスト機能を分離する新しい翻訳推定器を導入する。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
さらに,難易度の高い合成データセットを構築し,様々なノイズ源に対する手法のロバスト性を強調した。
プロジェクトのWebサイトは以下の通り。
関連論文リスト
- LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - Robust 6D Object Pose Estimation by Learning RGB-D Features [59.580366107770764]
本稿では、この局所最適問題を解くために、回転回帰のための離散連続的な新しい定式化を提案する。
我々はSO(3)の回転アンカーを均一にサンプリングし、各アンカーから目標への制約付き偏差を予測し、最適な予測を選択するための不確実性スコアを出力する。
LINEMOD と YCB-Video の2つのベンチマーク実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T06:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。