論文の概要: ObjectMatch: Robust Registration using Canonical Object Correspondences
- arxiv url: http://arxiv.org/abs/2212.01985v2
- Date: Fri, 24 Mar 2023 23:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 01:21:31.758780
- Title: ObjectMatch: Robust Registration using Canonical Object Correspondences
- Title(参考訳): ObjectMatch: 標準オブジェクト対応を用いたロバスト登録
- Authors: Can G\"umeli, Angela Dai, Matthias Nie{\ss}ner
- Abstract要約: 本稿では,RGB-D SLAMパイプラインのためのセマンティック・オブジェクト中心のカメラポーズ推定器であるObjectMatchを提案する。
RGB-Dシークエンスを登録する場合,本手法は,挑戦的で低フレームレートのシナリオにおいて,最先端のSLAMベースラインよりも優れる。
- 参考スコア(独自算出の注目度): 21.516657643120375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present ObjectMatch, a semantic and object-centric camera pose estimator
for RGB-D SLAM pipelines. Modern camera pose estimators rely on direct
correspondences of overlapping regions between frames; however, they cannot
align camera frames with little or no overlap. In this work, we propose to
leverage indirect correspondences obtained via semantic object identification.
For instance, when an object is seen from the front in one frame and from the
back in another frame, we can provide additional pose constraints through
canonical object correspondences. We first propose a neural network to predict
such correspondences on a per-pixel level, which we then combine in our energy
formulation with state-of-the-art keypoint matching solved with a joint
Gauss-Newton optimization. In a pairwise setting, our method improves
registration recall of state-of-the-art feature matching, including from 24% to
45% in pairs with 10% or less inter-frame overlap. In registering RGB-D
sequences, our method outperforms cutting-edge SLAM baselines in challenging,
low-frame-rate scenarios, achieving more than 35% reduction in trajectory error
in multiple scenes.
- Abstract(参考訳): rgb-d slamパイプライン用の意味的かつオブジェクト中心のカメラポーズ推定器objectmatchを提案する。
現代のカメラポーズ推定装置は、フレーム間の重なり合う領域の直接対応に依存するが、カメラフレームをほとんどあるいは全く重なり合っていない。
本研究では,意味オブジェクト識別によって得られる間接対応の活用を提案する。
例えば、あるフレームの前面から、別のフレームの後方からオブジェクトが見える場合、標準オブジェクト対応を通じて追加のポーズ制約を与えることができる。
まず,1ピクセルあたりの対応を予測するためのニューラルネットワークを提案し,これをエネルギー定式化と最先端キーポイントマッチングと組み合わせ,共同ガウス・ニュートン最適化で解いた。
本手法は,24%から45%のペアと10%以下のフレームオーバーラップを含む,最先端機能マッチングの登録リコールを改善する。
RGB-Dシークエンスを登録する場合,本手法は困難かつ低フレームレートのシナリオにおいて最先端のSLAMベースラインよりも優れ,複数のシーンにおいて軌道誤差が35%以上減少する。
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - FoundPose: Unseen Object Pose Estimation with Foundation Features [11.32559845631345]
FoundPoseは、単一のRGB画像から見えないオブジェクトを6Dポーズで推定するモデルベースの手法である。
この方法は、オブジェクトやタスク固有のトレーニングを必要とせずに、3Dモデルを使って、新しいオブジェクトを素早くオンボードできる。
論文 参考訳(メタデータ) (2023-11-30T18:52:29Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Quantity-Aware Coarse-to-Fine Correspondence for Image-to-Point Cloud
Registration [4.954184310509112]
Image-to-point cloud registrationは、RGBイメージと参照ポイントクラウドの間の相対カメラのポーズを決定することを目的としている。
個々の点と画素とのマッチングは、モダリティギャップによって本質的に曖昧である。
本稿では,局所点集合と画素パッチ間の量認識対応を捉える枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:55:54Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - RelPose: Predicting Probabilistic Relative Rotation for Single Objects
in the Wild [73.1276968007689]
本稿では、任意のオブジェクトの複数の画像からカメラ視点を推定するデータ駆動手法について述べる。
本手法は, 画像の鮮明さから, 最先端のSfM法とSLAM法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T17:59:59Z) - Level Set-Based Camera Pose Estimation From Multiple 2D/3D
Ellipse-Ellipsoid Correspondences [2.016317500787292]
2次元物体検出に対する3次元物体の投影を特徴付けるコスト関数の定義は簡単ではないことを示す。
レベルセットのサンプリングに基づいて楕円楕円コストを開発し、部分的な可視オブジェクトを扱うための優れた特性を実証し、その性能を他の一般的なメトリクスと比較する。
論文 参考訳(メタデータ) (2022-07-16T14:09:54Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。