論文の概要: SO(3)-Pose: SO(3)-Equivariance Learning for 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2208.08338v1
- Date: Wed, 17 Aug 2022 15:04:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:03:10.464129
- Title: SO(3)-Pose: SO(3)-Equivariance Learning for 6D Object Pose Estimation
- Title(参考訳): so(3)-pose:so(3)-等分散学習による6次元物体ポーズ推定
- Authors: Haoran Pan, Jun Zhou, Yuanpeng Liu, Xuequan Lu, Weiming Wang, Xuefeng
Yan, Mingqiang Wei
- Abstract要約: RGB-D画像からの剛体物体の6次元ポーズ推定は,ロボット工学における物体の把握と操作に不可欠である。
ポーズ推定のための深度チャネルから,SO(3)-同変およびSO(3)-不変特徴を探索する新しい表現学習ネットワークであるSO(3)-Poseを提案する。
提案手法は,3つのベンチマーク上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 23.49267816526126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6D pose estimation of rigid objects from RGB-D images is crucial for object
grasping and manipulation in robotics. Although RGB channels and the depth (D)
channel are often complementary, providing respectively the appearance and
geometry information, it is still non-trivial how to fully benefit from the two
cross-modal data. From the simple yet new observation, when an object rotates,
its semantic label is invariant to the pose while its keypoint offset direction
is variant to the pose. To this end, we present SO(3)-Pose, a new
representation learning network to explore SO(3)-equivariant and
SO(3)-invariant features from the depth channel for pose estimation. The
SO(3)-invariant features facilitate to learn more distinctive representations
for segmenting objects with similar appearance from RGB channels. The
SO(3)-equivariant features communicate with RGB features to deduce the (missed)
geometry for detecting keypoints of an object with the reflective surface from
the depth channel. Unlike most of existing pose estimation methods, our
SO(3)-Pose not only implements the information communication between the RGB
and depth channels, but also naturally absorbs the SO(3)-equivariance geometry
knowledge from depth images, leading to better appearance and geometry
representation learning. Comprehensive experiments show that our method
achieves the state-of-the-art performance on three benchmarks.
- Abstract(参考訳): rgb-d画像からの剛体物体の6次元ポーズ推定はロボットの物体把握と操作に不可欠である。
rgbチャネルと深度(d)チャネルは相補的であり、それぞれ外観と形状の情報を提供するが、2つのクロスモーダルデータから完全に恩恵を受ける方法はいまだに自明ではない。
単純で新しい観察では、物体が回転するとき、その意味ラベルはポーズに不変であり、キーポイントオフセット方向はポーズに変化している。
この目的のために,ポーズ推定のための深度チャネルからSO(3)-同変およびSO(3)-不変特徴を探索する新しい表現学習ネットワークであるSO(3)-Poseを提案する。
so(3)不変な特徴は、rgbチャネルから類似した外観を持つセグメンテーションオブジェクトのより特徴的な表現を学ぶのに役立つ。
SO(3)-等価な特徴はRGBの特徴と通信し、深度チャネルから反射面を持つ物体のキーポイントを検出する(欠測した)幾何学を推論する。
既存のポーズ推定手法とは異なり、我々のSO(3)-PoseはRGBと深度チャネル間の情報通信を実装しているだけでなく、深度画像からSO(3)-等価な幾何学的知識を自然に吸収し、外観と幾何表現学習の改善をもたらす。
総合的な実験により,本手法は3つのベンチマークで最先端の性能を実現する。
関連論文リスト
- MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [61.15679579799858]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - DPODv2: Dense Correspondence-Based 6 DoF Pose Estimation [24.770767430749288]
DPODv2(Dense Pose Object Detector)と呼ばれる3ステージ6DoFオブジェクト検出手法を提案する。
本研究では,2次元物体検出器と高密度対応推定ネットワークを組み合わせることで,フル6DFのポーズを推定する多視点ポーズ補正手法を提案する。
DPODv2は、使用済みのデータモダリティとトレーニングデータの種類によらず、高速でスケーラブルなまま、すべてのデータに対して優れた結果を得る。
論文 参考訳(メタデータ) (2022-07-06T16:48:56Z) - Towards Two-view 6D Object Pose Estimation: A Comparative Study on
Fusion Strategy [16.65699606802237]
現在のRGBベースの6Dオブジェクトポーズ推定手法は、データセットや実世界のアプリケーションで顕著なパフォーマンスを達成した。
本稿では2枚のRGB画像から暗黙的な3D情報を学習する6次元オブジェクトポーズ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T08:22:34Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z) - EPOS: Estimating 6D Pose of Objects with Symmetries [57.448933686429825]
1つのRGB入力から利用可能な3次元モデルを用いて、剛体物体の6次元ポーズを推定する新しい手法を提案する。
オブジェクトは、体系的な方法で対称性を許容するコンパクトな表面フラグメントによって表現される。
エンコーダデコーダネットワークを用いて,高密度サンプリング画素とフラグメントの対応性を予測する。
論文 参考訳(メタデータ) (2020-04-01T17:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。