論文の概要: Robust, Occlusion-aware Pose Estimation for Objects Grasped by Adaptive
Hands
- arxiv url: http://arxiv.org/abs/2003.03518v1
- Date: Sat, 7 Mar 2020 05:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 20:05:54.039344
- Title: Robust, Occlusion-aware Pose Estimation for Objects Grasped by Adaptive
Hands
- Title(参考訳): 適応型手による物体のロバスト・オクルージョン・アウェアポーズ推定
- Authors: Bowen Wen, Chaitanya Mitash, Sruthi Soorian, Andrew Kimmel, Avishai
Sintov and Kostas E. Bekris
- Abstract要約: 内部操作のような操作タスクは、ロボットハンドに対してオブジェクトのポーズを必要とする。
本稿では,頑健なポーズ推定と応答時間の短縮を目的とした奥行きに基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.343365158924183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many manipulation tasks, such as placement or within-hand manipulation,
require the object's pose relative to a robot hand. The task is difficult when
the hand significantly occludes the object. It is especially hard for adaptive
hands, for which it is not easy to detect the finger's configuration. In
addition, RGB-only approaches face issues with texture-less objects or when the
hand and the object look similar. This paper presents a depth-based framework,
which aims for robust pose estimation and short response times. The approach
detects the adaptive hand's state via efficient parallel search given the
highest overlap between the hand's model and the point cloud. The hand's point
cloud is pruned and robust global registration is performed to generate object
pose hypotheses, which are clustered. False hypotheses are pruned via physical
reasoning. The remaining poses' quality is evaluated given agreement with
observed data. Extensive evaluation on synthetic and real data demonstrates the
accuracy and computational efficiency of the framework when applied on
challenging, highly-occluded scenarios for different object types. An ablation
study identifies how the framework's components help in performance. This work
also provides a dataset for in-hand 6D object pose estimation. Code and dataset
are available at: https://github.com/wenbowen123/icra20-hand-object-pose
- Abstract(参考訳): 配置やハンド操作のような多くの操作タスクでは、ロボットハンドに対する物体のポーズが必要となる。
手が物体を著しく遮っている場合、作業は困難である。
適応的な手では特に困難であり、指の形状を検出することは容易ではない。
さらに、RGBのみのアプローチは、テクスチャのないオブジェクトや、手とオブジェクトが似ている場合に問題に直面します。
本稿では,ロバストなポーズ推定と短い応答時間を目的とした奥行きベースフレームワークを提案する。
この手法は、手と点雲の最も高い重なり合いを考慮し、効率のよい並列探索により適応手の状態を検出する。
手の点雲は刈り取られ、ロバストなグローバル登録が行われ、クラスタ化されたオブジェクトポーズ仮説が生成される。
虚偽の仮説は物理的推論によって決定される。
残りのポーズの品質は、観測データと一致して評価される。
合成および実データに対する広範囲な評価は、異なるオブジェクトタイプの難易度の高いシナリオに適用した場合、フレームワークの精度と計算効率を示す。
アブレーション調査は、フレームワークのコンポーネントがパフォーマンスにどのように役立つかを特定する。
この作業は、6Dオブジェクトのポーズ推定のためのデータセットも提供する。
https://github.com/wenbowen123/icra20-hand-object-pose
関連論文リスト
- DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - Context-aware 6D Pose Estimation of Known Objects using RGB-D data [3.48122098223937]
6Dオブジェクトのポーズ推定は、コンピュータビジョンとロボット工学の分野で研究トピックとなっている。
私たちは、以前の作業とは異なり、コンテキストアウェアなアーキテクチャを提示します。
実験の結果,LineMODデータセットの精度は約3.2%向上した。
論文 参考訳(メタデータ) (2022-12-11T18:01:01Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild [45.93626858034774]
カテゴリーレベルのPPF投票法は、野生における正確で堅牢で一般化可能な9Dポーズ推定を実現する。
ノイズの多い点対のサンプルを排除し、個体群から最終的な予測を生成するために、新しい粗大な投票アルゴリズムを提案する。
我々の手法は実世界のトレーニングデータと同等である。
論文 参考訳(メタデータ) (2022-03-07T01:36:22Z) - Leveraging Photometric Consistency over Time for Sparsely Supervised
Hand-Object Reconstruction [118.21363599332493]
本稿では,ビデオ中のフレームの粗いサブセットに対してのみアノテーションが利用できる場合に,時間とともに光度整合性を活用する手法を提案する。
本モデルでは,ポーズを推定することにより,手や物体を3Dで共同で再構成するカラーイメージをエンドツーエンドに訓練する。
提案手法は,3次元手動画像再構成の精度向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-04-28T12:03:14Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。