論文の概要: PrimA6D: Rotational Primitive Reconstruction for Enhanced and Robust 6D
Pose Estimation
- arxiv url: http://arxiv.org/abs/2006.07789v2
- Date: Fri, 3 Jul 2020 10:39:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 13:21:48.737490
- Title: PrimA6D: Rotational Primitive Reconstruction for Enhanced and Robust 6D
Pose Estimation
- Title(参考訳): PrimA6D: 強化とロバストな6次元姿勢推定のための回転原始的再構成
- Authors: Myung-Hwan Jeon and Ayoung Kim
- Abstract要約: 本稿では,1つの画像を入力として,回転プリミティブに基づく6次元オブジェクトポーズ推定を提案する。
変分オートエンコーダ(VAE)を利用して、基礎となるプリミティブとその関連するキーポイントを学習する。
公開データセットに対して評価すると,LINEMOD,Occlusion LINEMOD,およびY誘発データセットよりも顕著な改善が得られた。
- 参考スコア(独自算出の注目度): 11.873744190924599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a rotational primitive prediction based 6D object
pose estimation using a single image as an input. We solve for the 6D object
pose of a known object relative to the camera using a single image with
occlusion. Many recent state-of-the-art (SOTA) two-step approaches have
exploited image keypoints extraction followed by PnP regression for pose
estimation. Instead of relying on bounding box or keypoints on the object, we
propose to learn orientation-induced primitive so as to achieve the pose
estimation accuracy regardless of the object size. We leverage a Variational
AutoEncoder (VAE) to learn this underlying primitive and its associated
keypoints. The keypoints inferred from the reconstructed primitive image are
then used to regress the rotation using PnP. Lastly, we compute the translation
in a separate localization module to complete the entire 6D pose estimation.
When evaluated over public datasets, the proposed method yields a notable
improvement over the LINEMOD, the Occlusion LINEMOD, and the YCB-Video dataset.
We further provide a synthetic-only trained case presenting comparable
performance to the existing methods which require real images in the training
phase.
- Abstract(参考訳): 本稿では,単一画像を用いた6次元物体ポーズ推定を入力として,回転プリミティブ予測を提案する。
カメラに対する既知物体の6次元物体ポーズについて,オクルージョンのある1枚の画像を用いて解く。
最近のSOTA(State-of-the-art)2段階アプローチでは、画像キーポイント抽出とPnP回帰を用いてポーズ推定を行っている。
オブジェクトのバウンディングボックスやキーポイントに頼る代わりに、向き付けによるプリミティブを学習し、オブジェクトサイズに関係なくポーズ推定精度を達成することを提案する。
変分オートエンコーダ(VAE)を利用して、基礎となるプリミティブとその関連するキーポイントを学習する。
次に、再構成されたプリミティブ画像から推測されるキーポイントを用いて、PnPを用いて回転を後退させる。
最後に, 6次元ポーズ推定を完結させるために, 別個のローカライズモジュールで翻訳を計算する。
公開データセットに対して評価すると、提案手法はLINEMOD、Occlusion LINEMOD、YCB-Videoデータセットよりも顕著に改善される。
さらに,学習段階の実際の画像を必要とする既存の手法に匹敵する性能を示す,合成専用訓練ケースを提供する。
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - YOLOPose V2: Understanding and Improving Transformer-based 6D Pose
Estimation [36.067414358144816]
YOLOPoseはトランスフォーマーベースの多目的6Dポーズ推定法である。
キーポイントから向きを予測するために,学習可能な向き推定モジュールを用いる。
提案手法はリアルタイムアプリケーションに適した手法であり,最先端の手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2023-07-21T12:53:54Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - YOLOPose: Transformer-based Multi-Object 6D Pose Estimation using
Keypoint Regression [44.282841879849244]
キーポイント回帰に基づくトランスフォーマーに基づく多目的6Dポーズ推定手法YOLOPoseを提案する。
提案手法はリアルタイムアプリケーションに適した手法であり,最先端の手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2022-05-05T09:51:39Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。