論文の概要: Object Level Depth Reconstruction for Category Level 6D Object Pose
Estimation From Monocular RGB Image
- arxiv url: http://arxiv.org/abs/2204.01586v1
- Date: Mon, 4 Apr 2022 15:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 15:39:32.584174
- Title: Object Level Depth Reconstruction for Category Level 6D Object Pose
Estimation From Monocular RGB Image
- Title(参考訳): 単眼RGB画像からのカテゴリーレベル6次元オブジェクト位置推定のための物体深度再構成
- Authors: Zhaoxin Fan, Zhenbo Song, Jian Xu, Zhicheng Wang, Kejian Wu, Hongyan
Liu and Jun He
- Abstract要約: 本稿では,RGB画像のみをカテゴリレベルの6Dオブジェクトポーズ推定の入力として用いたオブジェクトレベル深さ再構成ネットワーク(OLD-Net)を提案する。
本稿では,一眼レフ画像からオブジェクトレベルの深度と標準NOCS表現に先立ってカテゴリレベルの形状を変形させることにより,オブジェクトレベルの深度を直接予測する。
挑戦的なCAMERA25とREAL275データセットの実験は、我々のモデルが最先端のパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 12.382992538846896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, RGBD-based category-level 6D object pose estimation has achieved
promising improvement in performance, however, the requirement of depth
information prohibits broader applications. In order to relieve this problem,
this paper proposes a novel approach named Object Level Depth reconstruction
Network (OLD-Net) taking only RGB images as input for category-level 6D object
pose estimation. We propose to directly predict object-level depth from a
monocular RGB image by deforming the category-level shape prior into
object-level depth and the canonical NOCS representation. Two novel modules
named Normalized Global Position Hints (NGPH) and Shape-aware Decoupled Depth
Reconstruction (SDDR) module are introduced to learn high fidelity object-level
depth and delicate shape representations. At last, the 6D object pose is solved
by aligning the predicted canonical representation with the back-projected
object-level depth. Extensive experiments on the challenging CAMERA25 and
REAL275 datasets indicate that our model, though simple, achieves
state-of-the-art performance.
- Abstract(参考訳): 近年,RGBDをベースとしたカテゴリレベルの6Dオブジェクトポーズ推定では,性能向上が期待できるが,深度情報の要求はより広範な応用を妨げている。
そこで本研究では,RGB画像のみをカテゴリレベルの6Dオブジェクトポーズ推定の入力として用いたオブジェクトレベル深さ再構成ネットワーク(OLD-Net)を提案する。
本稿では,一眼レフ画像からオブジェクトレベルの深度と標準NOCS表現に先立ってカテゴリレベルの形状を変形させることにより,オブジェクトレベルの深度を直接予測する。
高忠実度オブジェクトレベルの深さと微妙な形状表現を学習するために、正規化グローバル位置ヒント(NGPH)と形状認識デカップリング深度再構成(SDDR)モジュールと呼ばれる2つの新しいモジュールを導入した。
最終的に、6Dオブジェクトのポーズは、予測された標準表現と後方投影されたオブジェクトレベルの深さを一致させることで解決される。
挑戦的なCAMERA25とREAL275データセットに関する大規模な実験は、我々のモデルは単純ではあるが最先端のパフォーマンスを達成することを示している。
関連論文リスト
- RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - MV-ROPE: Multi-view Constraints for Robust Category-level Object Pose and Size Estimation [23.615122326731115]
本稿では,RGBビデオストリームを利用した新しいソリューションを提案する。
本フレームワークは,スケール対応単分子高密度SLAMソリューション,軽量オブジェクトポーズ予測器,オブジェクトレベルのポーズグラフの3つのモジュールから構成される。
提案手法は,高精細度情報を用いた公開データセットを用いた場合,最先端のRGB-D手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-08-17T08:29:54Z) - StereoPose: Category-Level 6D Transparent Object Pose Estimation from
Stereo Images via Back-View NOCS [106.62225866064313]
本稿では,カテゴリレベルのオブジェクトポーズ推定のためのステレオ画像フレームワークであるStereoPoseを紹介する。
純粋なステレオ画像からロバストな推定を行うため、カテゴリレベルのポーズ推定をオブジェクトサイズ推定、初期ポーズ推定、ポーズ修正に分解するパイプラインを開発する。
画像コンテンツエイリアス化の問題に対処するために、透明なオブジェクトに対するバックビューNOCSマップを定義する。
バックビューNOCSは、コンテンツエイリアスによるネットワーク学習のあいまいさを低減し、透明オブジェクトの背面にある情報的手がかりを利用してより正確なポーズ推定を行うことを目的としている。
論文 参考訳(メタデータ) (2022-11-03T08:36:09Z) - PhoCaL: A Multi-Modal Dataset for Category-Level Object Pose Estimation
with Photometrically Challenging Objects [45.31344700263873]
我々は、PhoCaLと呼ばれる光度に挑戦するオブジェクトを用いたカテゴリレベルのオブジェクトポーズ推定のためのマルチモーダルデータセットを提案する。
PhoCaLは、高い反射率、透明度、対称度を含む8種類以上の家庭用品の60種類の高品質な3Dモデルで構成されている。
これにより、不透明で光沢のある透明な物体のポーズのサブミリ秒精度が保証され、動きのぼやけも無く、カメラの同期も完璧になる。
論文 参考訳(メタデータ) (2022-05-18T09:21:09Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Next-Best-View Prediction for Active Stereo Cameras and Highly
Reflective Objects [12.21992378133376]
反射物体の深度データを完成させるためのカメラ視点を戦略的に選択する次世代ビューフレームワークを提案する。
我々は既存のデータから現在のポーズ予測を得るためにRGBベースのポーズ推定器を用いる。
我々の能動深度取得法は,2つの強いベースラインを上回り,深度完成度とオブジェクトポーズ推定性能を両立させる。
論文 参考訳(メタデータ) (2022-02-27T01:48:02Z) - Single-stage Keypoint-based Category-level Object Pose Estimation from
an RGB Image [27.234658117816103]
カテゴリレベルのオブジェクトポーズ推定のための,単一段階のキーポイントに基づくアプローチを提案する。
提案ネットワークは2次元オブジェクト検出を行い、2次元キーポイントを検出し、6-DoFのポーズを推定し、相対的に有界な立方体次元を回帰する。
我々は,3次元IoU測定値における最先端の手法よりも優れた,挑戦的なObjectronベンチマークに関する広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-09-13T17:55:00Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。