論文の概要: EPOS: Estimating 6D Pose of Objects with Symmetries
- arxiv url: http://arxiv.org/abs/2004.00605v1
- Date: Wed, 1 Apr 2020 17:41:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:35:42.742670
- Title: EPOS: Estimating 6D Pose of Objects with Symmetries
- Title(参考訳): EPOS: 対称性でオブジェクトの6Dポスを推定する
- Authors: Tomas Hodan, Daniel Barath, Jiri Matas
- Abstract要約: 1つのRGB入力から利用可能な3次元モデルを用いて、剛体物体の6次元ポーズを推定する新しい手法を提案する。
オブジェクトは、体系的な方法で対称性を許容するコンパクトな表面フラグメントによって表現される。
エンコーダデコーダネットワークを用いて,高密度サンプリング画素とフラグメントの対応性を予測する。
- 参考スコア(独自算出の注目度): 57.448933686429825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new method for estimating the 6D pose of rigid objects with
available 3D models from a single RGB input image. The method is applicable to
a broad range of objects, including challenging ones with global or partial
symmetries. An object is represented by compact surface fragments which allow
handling symmetries in a systematic manner. Correspondences between densely
sampled pixels and the fragments are predicted using an encoder-decoder
network. At each pixel, the network predicts: (i) the probability of each
object's presence, (ii) the probability of the fragments given the object's
presence, and (iii) the precise 3D location on each fragment. A data-dependent
number of corresponding 3D locations is selected per pixel, and poses of
possibly multiple object instances are estimated using a robust and efficient
variant of the PnP-RANSAC algorithm. In the BOP Challenge 2019, the method
outperforms all RGB and most RGB-D and D methods on the T-LESS and LM-O
datasets. On the YCB-V dataset, it is superior to all competitors, with a large
margin over the second-best RGB method. Source code is at:
cmp.felk.cvut.cz/epos.
- Abstract(参考訳): 本稿では,単一のrgb入力画像から3dモデルを用いた剛体物体の6次元ポーズ推定法を提案する。
この方法は、大域的あるいは部分的対称性を持つ挑戦的な対象を含む幅広い対象に適用できる。
オブジェクトは、体系的な方法で対称性を扱うことができるコンパクトな表面フラグメントによって表現される。
エンコーダデコーダネットワークを用いて,高密度サンプリング画素とフラグメントの対応性を予測する。
各ピクセルで、ネットワークは次のように予測します。
(i)各物体の存在の確率
(ii)対象物の存在が与えられた断片の確率、及び
(iii)各断片の正確な3d位置。
画素毎に対応する3d位置のデータ依存数を選択し、pnp-ransacアルゴリズムのロバストで効率的な変種を用いて複数のオブジェクトインスタンスのポーズを推定する。
BOP Challenge 2019では、この手法はT-LESSおよびLM-Oデータセット上で全RGBおよびほとんどのRGB-DおよびDメソッドを上回っている。
YCB-Vデータセットでは、すべての競合より優れており、2番目に高いRGB法よりも大きなマージンを持つ。
ソースコードは: cmp.felk.cvut.cz/epos。
関連論文リスト
- MVSDet: Multi-View Indoor 3D Object Detection via Efficient Plane Sweeps [51.44887282336391]
多視点屋内3次元物体検出の課題は、画像から正確な幾何学情報を推測して正確な3次元物体検出を行うことである。
それまでの手法は、幾何推論にNeRFに依存していた。
平面スイープを用いた3次元物体検出のためのMVSDetを提案する。
論文 参考訳(メタデータ) (2024-10-28T21:58:41Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - 6D Object Pose Estimation from Approximate 3D Models for Orbital
Robotics [19.64111218032901]
単一画像から物体の6次元ポーズを推定する新しい手法を提案する。
画素毎に3次元モデル座標を回帰する高密度な2次元から3次元対応予測器を用いる。
提案手法は,SPEED+データセット上での最先端性能を実現し,SPEC2021ポストモーテムコンペティションで優勝した。
論文 参考訳(メタデータ) (2023-03-23T13:18:05Z) - 3D Neural Embedding Likelihood: Probabilistic Inverse Graphics for
Robust 6D Pose Estimation [50.15926681475939]
逆グラフィックスは2次元画像から3次元シーン構造を推論することを目的としている。
確率モデルを導入し,不確実性を定量化し,6次元ポーズ推定タスクにおけるロバスト性を実現する。
3DNELは、RGBから学んだニューラルネットワークの埋め込みと深度情報を組み合わせることで、RGB-D画像からのsim-to-real 6Dオブジェクトのポーズ推定の堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-02-07T20:48:35Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - Pose Estimation of Specific Rigid Objects [0.7931904787652707]
本稿では,RGBまたはRGB-D入力画像から剛体物体の6次元ポーズを推定する問題に対処する。
この問題は、ロボット操作、拡張現実、自律運転など、多くの応用分野において非常に重要である。
論文 参考訳(メタデータ) (2021-12-30T14:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。