論文の概要: 6D Pose Estimation with Combined Deep Learning and 3D Vision Techniques
for a Fast and Accurate Object Grasping
- arxiv url: http://arxiv.org/abs/2111.06276v1
- Date: Thu, 11 Nov 2021 15:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 18:01:11.647753
- Title: 6D Pose Estimation with Combined Deep Learning and 3D Vision Techniques
for a Fast and Accurate Object Grasping
- Title(参考訳): 高速高精度物体把握のためのディープラーニングと3次元視覚技術を組み合わせた6次元ポーズ推定
- Authors: Tuan-Tang Le, Trung-Son Le, Yu-Ru Chen, Joel Vidal, Chyi-Yeu Lin
- Abstract要約: リアルタイムロボットの把握は高度な自律システムにとって最優先の目標である。
本稿では,ディープニューラルネットワークを用いた高速な2次元物体認識を組み合わせた2段階手法を提案する。
提案手法は、効率と精度の両方を必要とせず、リアルタイムアプリケーションで堅牢に動作する可能性がある。
- 参考スコア(独自算出の注目度): 0.19686770963118383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time robotic grasping, supporting a subsequent precise object-in-hand
operation task, is a priority target towards highly advanced autonomous
systems. However, such an algorithm which can perform sufficiently-accurate
grasping with time efficiency is yet to be found. This paper proposes a novel
method with a 2-stage approach that combines a fast 2D object recognition using
a deep neural network and a subsequent accurate and fast 6D pose estimation
based on Point Pair Feature framework to form a real-time 3D object recognition
and grasping solution capable of multi-object class scenes. The proposed
solution has a potential to perform robustly on real-time applications,
requiring both efficiency and accuracy. In order to validate our method, we
conducted extensive and thorough experiments involving laborious preparation of
our own dataset. The experiment results show that the proposed method scores
97.37% accuracy in 5cm5deg metric and 99.37% in Average Distance metric.
Experiment results have shown an overall 62% relative improvement (5cm5deg
metric) and 52.48% (Average Distance metric) by using the proposed method.
Moreover, the pose estimation execution also showed an average improvement of
47.6% in running time. Finally, to illustrate the overall efficiency of the
system in real-time operations, a pick-and-place robotic experiment is
conducted and has shown a convincing success rate with 90% of accuracy. This
experiment video is available at https://sites.google.com/view/dl-ppf6dpose/.
- Abstract(参考訳): その後の正確な操作タスクをサポートするリアルタイムロボット把持は、高度に高度な自律システムへの優先目標である。
しかし、時間効率で十分に正確に把握できるようなアルゴリズムはまだ見つからない。
本稿では,深層ニューラルネットワークを用いた高速な2次元物体認識と,それに続く高精度かつ高速な6次元ポーズ推定とを組み合わせて,リアルタイムな3次元物体認識・把握ソリューションを構築する手法を提案する。
提案するソリューションは、リアルタイムアプリケーションで堅牢に動作し、効率と精度の両方を必要とする可能性がある。
提案手法を検証するため,我々のデータセットの精巧な作成を含む広範囲かつ徹底的な実験を行った。
実験の結果,提案手法の精度は5cm5degで97.37%,平均距離で99.37%であった。
実験の結果, 提案手法を用いて, 62%の相対的改善(5cm5deg)と52.48%(平均距離)が得られた。
また、ポーズ推定実行では、実行時間の平均が47.6%向上した。
最後に、リアルタイム操作におけるシステム全体の効率を示すために、ピック・アンド・プレースロボット実験を行い、90%の精度で説得力のある成功率を示した。
この実験ビデオはhttps://sites.google.com/view/dl-ppf6dpose/で見ることができる。
関連論文リスト
- Precise Pick-and-Place using Score-Based Diffusion Networks [10.760482305679053]
ロボット操作タスクにおけるピック・アンド・プレイス操作の精度を高めるために、粗い連続ポーズ拡散法。
提案手法は,RGB-Dカメラから投影されるトップダウンのRGB画像を利用し,粗いアーキテクチャを採用する。
論文 参考訳(メタデータ) (2024-09-15T13:09:09Z) - Uncertainty-Aware Testing-Time Optimization for 3D Human Pose Estimation [68.75387874066647]
本研究では3次元ポーズ推定のための不確実性認識テスト時間最適化フレームワークを提案する。
我々のアプローチは、Human3.6Mの4.5%という大きなマージンで、過去最高の結果を上回っている。
論文 参考訳(メタデータ) (2024-02-04T04:28:02Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - MPF6D: Masked Pyramid Fusion 6D Pose Estimation [1.2891210250935146]
提案手法では,提案手法の精度を向上させるため,物体の6次元ポーズを推定する手法を提案する。
提案手法は, 推定時間0.12秒でリアルタイムに利用でき, 精度が高い。
論文 参考訳(メタデータ) (2021-11-17T20:23:54Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - SIMPLE: SIngle-network with Mimicking and Point Learning for Bottom-up
Human Pose Estimation [81.03485688525133]
Single-network with Mimicking and Point Learning for Bottom-up Human Pose Estimation (SIMPLE) を提案する。
具体的には、トレーニングプロセスにおいて、SIMPLEが高性能なトップダウンパイプラインからのポーズ知識を模倣できるようにする。
さらに、SIMPLEは人間検出とポーズ推定を統一的なポイントラーニングフレームワークとして定式化し、単一ネットワークで相互に補完する。
論文 参考訳(メタデータ) (2021-04-06T13:12:51Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - se(3)-TrackNet: Data-driven 6D Pose Tracking by Calibrating Image
Residuals in Synthetic Domains [12.71983073907091]
本研究では,長期6次元ポーズトラッキングのためのデータ駆動型最適化手法を提案する。
本研究の目的は、現在のRGB-D観測と、前回の推定値と対象物のモデルに基づいて条件付けされた合成画像から、最適な相対的なポーズを特定することである。
提案手法は, 実画像を用いて訓練した場合でも, 常に頑健な評価を達成し, 代替品よりも優れる。
論文 参考訳(メタデータ) (2020-07-27T21:09:36Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。