論文の概要: SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2108.08367v1
- Date: Wed, 18 Aug 2021 19:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-21 05:00:26.779459
- Title: SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation
- Title(参考訳): SO-Pose:直接6次元ポース推定のための自己排除を爆発させる
- Authors: Yan Di, Fabian Manhardt, Gu Wang, Xiangyang Ji, Nassir Navab and
Federico Tombari
- Abstract要約: SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
- 参考スコア(独自算出の注目度): 98.83762558394345
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Directly regressing all 6 degrees-of-freedom (6DoF) for the object pose (e.g.
the 3D rotation and translation) in a cluttered environment from a single RGB
image is a challenging problem. While end-to-end methods have recently
demonstrated promising results at high efficiency, they are still inferior when
compared with elaborate P$n$P/RANSAC-based approaches in terms of pose
accuracy. In this work, we address this shortcoming by means of a novel
reasoning about self-occlusion, in order to establish a two-layer
representation for 3D objects which considerably enhances the accuracy of
end-to-end 6D pose estimation. Our framework, named SO-Pose, takes a single RGB
image as input and respectively generates 2D-3D correspondences as well as
self-occlusion information harnessing a shared encoder and two separate
decoders. Both outputs are then fused to directly regress the 6DoF pose
parameters. Incorporating cross-layer consistencies that align correspondences,
self-occlusion and 6D pose, we can further improve accuracy and robustness,
surpassing or rivaling all other state-of-the-art approaches on various
challenging datasets.
- Abstract(参考訳): 6自由度(6DoF)をすべて直接回帰する(例)。
単一のRGB画像からの散在した環境における3次元回転と変換は難しい問題である。
エンド・ツー・エンドの手法は近年,高い効率で有望な結果を証明しているが,P$n$P/RANSACをベースとした精巧な手法と比較しても精度は劣っている。
本研究では,この欠点を自己完結性に関する新しい推論を用いて解決し,エンドツーエンドの6次元ポーズ推定の精度を大幅に向上させる3次元物体の2層表現を確立する。
我々のフレームワークはSO-Poseと呼ばれ、単一のRGBイメージを入力として、それぞれ2D-3D対応と共有エンコーダと2つの分離デコーダを用いた自己隠蔽情報を生成する。
両方の出力は融合され、6DoFのポーズパラメータを直接回帰する。
対応性、自己閉塞性、および6Dポーズを整合させるクロスレイヤのコンピテンシーを組み込むことで、さまざまな挑戦的なデータセットに対する最先端のアプローチを克服または競合することで、精度と堅牢性をさらに向上することができる。
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - Pseudo Flow Consistency for Self-Supervised 6D Object Pose Estimation [14.469317161361202]
補助情報なしで純粋なRGB画像で訓練できる6次元オブジェクトポーズ推定法を提案する。
提案手法を3つの挑戦的データセット上で評価し,最先端の自己管理手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-19T13:52:18Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth
Seeds for 3D Object Detection [89.26380781863665]
自律運転システムにおける高精度で信頼性の高い3次元物体検出を実現するためには,LiDARとカメラ情報の融合が不可欠である。
近年のアプローチでは、2次元カメラ画像の3次元空間への昇華点によるカメラ特徴のセマンティックな密度の探索が試みられている。
マルチグラニュラリティLiDARとカメラ機能とのマルチスケールなプログレッシブインタラクションに焦点を当てた,新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T12:29:29Z) - Towards Two-view 6D Object Pose Estimation: A Comparative Study on
Fusion Strategy [16.65699606802237]
現在のRGBベースの6Dオブジェクトポーズ推定手法は、データセットや実世界のアプリケーションで顕著なパフォーマンスを達成した。
本稿では2枚のRGB画像から暗黙的な3D情報を学習する6次元オブジェクトポーズ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T08:22:34Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。