論文の概要: Single-stage Keypoint-based Category-level Object Pose Estimation from
an RGB Image
- arxiv url: http://arxiv.org/abs/2109.06161v1
- Date: Mon, 13 Sep 2021 17:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:18:11.776734
- Title: Single-stage Keypoint-based Category-level Object Pose Estimation from
an RGB Image
- Title(参考訳): rgb画像からの単段キーポイントに基づくカテゴリレベルオブジェクトポーズ推定
- Authors: Yunzhi Lin, Jonathan Tremblay, Stephen Tyree, Patricio A. Vela, Stan
Birchfield
- Abstract要約: カテゴリレベルのオブジェクトポーズ推定のための,単一段階のキーポイントに基づくアプローチを提案する。
提案ネットワークは2次元オブジェクト検出を行い、2次元キーポイントを検出し、6-DoFのポーズを推定し、相対的に有界な立方体次元を回帰する。
我々は,3次元IoU測定値における最先端の手法よりも優れた,挑戦的なObjectronベンチマークに関する広範囲な実験を行った。
- 参考スコア(独自算出の注目度): 27.234658117816103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior work on 6-DoF object pose estimation has largely focused on
instance-level processing, in which a textured CAD model is available for each
object being detected. Category-level 6-DoF pose estimation represents an
important step toward developing robotic vision systems that operate in
unstructured, real-world scenarios. In this work, we propose a single-stage,
keypoint-based approach for category-level object pose estimation that operates
on unknown object instances within a known category using a single RGB image as
input. The proposed network performs 2D object detection, detects 2D keypoints,
estimates 6-DoF pose, and regresses relative bounding cuboid dimensions. These
quantities are estimated in a sequential fashion, leveraging the recent idea of
convGRU for propagating information from easier tasks to those that are more
difficult. We favor simplicity in our design choices: generic cuboid vertex
coordinates, single-stage network, and monocular RGB input. We conduct
extensive experiments on the challenging Objectron benchmark, outperforming
state-of-the-art methods on the 3D IoU metric (27.6% higher than the MobilePose
single-stage approach and 7.1% higher than the related two-stage approach).
- Abstract(参考訳): 6-DoFオブジェクトのポーズ推定に関する以前の研究は、検出された各オブジェクトに対してテクスチャCADモデルが利用可能なインスタンスレベルの処理に重点を置いていた。
カテゴリーレベルの6-dofポーズ推定は、非構造化現実のシナリオで動作するロボットビジョンシステムを開発するための重要なステップである。
本稿では,単一のrgbイメージを入力として既知のカテゴリ内の未知のオブジェクトインスタンス上で動作するカテゴリレベルのオブジェクトポーズ推定のための,単一ステージのキーポイントベースアプローチを提案する。
提案ネットワークは, 2次元物体検出を行い, 2次元キーポイントを検知し, 6次元ポーズを推定し, 相対的に結合する立方体次元を回帰する。
これらの量は逐次的に推定され、より簡単なタスクからより難しいタスクへの情報伝達に、最近のconvGRUのアイデアを活用している。
設計選択における単純さは, 一般的な立方体頂点座標, 単段ネットワーク, 単分子RGB入力である。
我々は,挑戦的なobjectronベンチマークを用いて,3d iouメトリックにおける最先端手法(mobilepose単段法27.6%,関連する2段法7.1%)よりも優れた実験を行った。
関連論文リスト
- RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - HouseCat6D -- A Large-Scale Multi-Modal Category Level 6D Object
Perception Dataset with Household Objects in Realistic Scenarios [41.54851386729952]
新しいカテゴリレベルの6DポーズデータセットであるHouseCat6Dを紹介する。
1) ポラリメトリック RGB と Depth (RGBD+P) によるマルチモダリティ、2) フォトメトリックに挑戦する2つのカテゴリを含む10のカテゴリにわたる194の多様なオブジェクトを含み、3) エラー範囲が 1.35 mm から 1.74 mm である高品質なポーズアノテーションを提供する。
論文 参考訳(メタデータ) (2022-12-20T17:06:32Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - GPV-Pose: Category-level Object Pose Estimation via Geometry-guided
Point-wise Voting [103.74918834553249]
GPV-Poseはロバストなカテゴリーレベルのポーズ推定のための新しいフレームワークである。
幾何学的洞察を利用して、カテゴリーレベルのポーズ感応的特徴の学習を強化する。
一般的な公開ベンチマークにおいて、最先端の競合相手に優れた結果をもたらす。
論文 参考訳(メタデータ) (2022-03-15T13:58:50Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - Pose Estimation of Specific Rigid Objects [0.7931904787652707]
本稿では,RGBまたはRGB-D入力画像から剛体物体の6次元ポーズを推定する問題に対処する。
この問題は、ロボット操作、拡張現実、自律運転など、多くの応用分野において非常に重要である。
論文 参考訳(メタデータ) (2021-12-30T14:36:47Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - A Pose Proposal and Refinement Network for Better Object Pose Estimation [0.5735035463793008]
本稿では,RGB入力で動作する,エンドツーエンドの6Dオブジェクトポーズ推定手法を提案する。
提案するパイプラインは、最先端のRGBベースの手法と競合するランタイム性能より優れています。
論文 参考訳(メタデータ) (2020-04-11T23:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。