論文の概要: Context-aware 6D Pose Estimation of Known Objects using RGB-D data
- arxiv url: http://arxiv.org/abs/2212.05560v1
- Date: Sun, 11 Dec 2022 18:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 18:00:33.220821
- Title: Context-aware 6D Pose Estimation of Known Objects using RGB-D data
- Title(参考訳): RGB-Dデータを用いた未知物体の文脈認識6次元ポス推定
- Authors: Ankit Kumar, Priya Shukla, Vandana Kushwaha and G.C. Nandi
- Abstract要約: 6Dオブジェクトのポーズ推定は、コンピュータビジョンとロボット工学の分野で研究トピックとなっている。
私たちは、以前の作業とは異なり、コンテキストアウェアなアーキテクチャを提示します。
実験の結果,LineMODデータセットの精度は約3.2%向上した。
- 参考スコア(独自算出の注目度): 3.48122098223937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 6D object pose estimation has been a research topic in the field of computer
vision and robotics. Many modern world applications like robot grasping,
manipulation, autonomous navigation etc, require the correct pose of objects
present in a scene to perform their specific task. It becomes even harder when
the objects are placed in a cluttered scene and the level of occlusion is high.
Prior works have tried to overcome this problem but could not achieve accuracy
that can be considered reliable in real-world applications. In this paper, we
present an architecture that, unlike prior work, is context-aware. It utilizes
the context information available to us about the objects. Our proposed
architecture treats the objects separately according to their types i.e;
symmetric and non-symmetric. A deeper estimator and refiner network pair is
used for non-symmetric objects as compared to symmetric due to their intrinsic
differences. Our experiments show an enhancement in the accuracy of about 3.2%
over the LineMOD dataset, which is considered a benchmark for pose estimation
in the occluded and cluttered scenes, against the prior state-of-the-art
DenseFusion. Our results also show that the inference time we got is sufficient
for real-time usage.
- Abstract(参考訳): 6Dオブジェクトのポーズ推定はコンピュータビジョンとロボット工学の分野で研究トピックとなっている。
ロボットの把持、操作、自律ナビゲーションなど、現代の多くのアプリケーションは、特定のタスクを実行するためにシーンに存在するオブジェクトの正しいポーズを必要とする。
オブジェクトが散らかったシーンに置かれ、オクルージョンのレベルが高くなると、さらに難しくなります。
以前の研究はこの問題を克服しようと試みたが、現実のアプリケーションでは信頼できると考えられる精度を達成できなかった。
本稿では,従来の作業とは違ってコンテキスト認識のアーキテクチャを提案する。
オブジェクトについて我々に利用可能なコンテキスト情報を利用する。
提案するアーキテクチャはオブジェクトをその型、すなわち対称と非対称に別々に扱う。
より深い推定器と精製器のネットワークペアは、その内在的な違いによる対称と比較して非対称なオブジェクトに使用される。
実験では,オクルードシーンとクラッタシーンにおけるポーズ推定のベンチマークであるlinemodデータセットの約3.2%の精度向上を示す。
また,実時間の使用には十分な推定時間が得られることを示した。
関連論文リスト
- DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Robust, Occlusion-aware Pose Estimation for Objects Grasped by Adaptive
Hands [16.343365158924183]
内部操作のような操作タスクは、ロボットハンドに対してオブジェクトのポーズを必要とする。
本稿では,頑健なポーズ推定と応答時間の短縮を目的とした奥行きに基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-07T05:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。