論文の概要: ViHOPE: Visuotactile In-Hand Object 6D Pose Estimation with Shape
Completion
- arxiv url: http://arxiv.org/abs/2309.05662v1
- Date: Mon, 11 Sep 2023 17:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 11:30:42.004864
- Title: ViHOPE: Visuotactile In-Hand Object 6D Pose Estimation with Shape
Completion
- Title(参考訳): vihope: 形状完了による手持ち物体6dポーズ推定
- Authors: Hongyu Li, Snehal Dikhale, Soshi Iba, Nawid Jamali
- Abstract要約: 本稿では,ビゾタクティル知覚を用いた手動物体の6次元ポーズを推定するための新しいフレームワークであるViHOPEを紹介する。
本研究では,条件付き生成逆数ネットワークを用いて,容積表現に基づく手動物体の形状を完成させる。
我々は,実世界のロボットプラットフォーム上で,シミュレートから現実への移動に頑健なモデルを構築した。
- 参考スコア(独自算出の注目度): 11.483528203807312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this letter, we introduce ViHOPE, a novel framework for estimating the 6D
pose of an in-hand object using visuotactile perception. Our key insight is
that the accuracy of the 6D object pose estimate can be improved by explicitly
completing the shape of the object. To this end, we introduce a novel
visuotactile shape completion module that uses a conditional Generative
Adversarial Network to complete the shape of an in-hand object based on
volumetric representation. This approach improves over prior works that
directly regress visuotactile observations to a 6D pose. By explicitly
completing the shape of the in-hand object and jointly optimizing the shape
completion and pose estimation tasks, we improve the accuracy of the 6D object
pose estimate. We train and test our model on a synthetic dataset and compare
it with the state-of-the-art. In the visuotactile shape completion task, we
outperform the state-of-the-art by 265% using the Intersection of Union metric
and achieve 88% lower Chamfer Distance. In the visuotactile pose estimation
task, we present results that suggest our framework reduces position and
angular errors by 35% and 64%, respectively. Furthermore, we ablate our
framework to confirm the gain on the 6D object pose estimate from explicitly
completing the shape. Ultimately, we show that our framework produces models
that are robust to sim-to-real transfer on a real-world robot platform.
- Abstract(参考訳): 本稿では,視覚知覚を用いて手指物体の6次元姿勢を推定する新しいフレームワークであるvihopeについて述べる。
我々の重要な洞察は、6Dオブジェクトのポーズ推定の精度を、オブジェクトの形状を明示的に完成させることで改善できるということである。
そこで本研究では,条件付き生成逆ネットワークを用いて,容積表現に基づく手指物体の形状を完備する,新しい視認性形状完備モジュールを提案する。
このアプローチは、6次元のポーズに自発的な観察を直接回帰する以前の作業よりも改善される。
対象物体の形状を明示的に完成させ,形状完了とポーズ推定タスクを協調的に最適化することにより,6次元オブジェクトのポーズ推定精度を向上する。
合成データセット上でモデルをトレーニングし、テストし、最先端のモデルと比較する。
バイスオタクティル形状完了タスクでは、ユニオン計量のインターセクションを用いて265%の最先端を達成し、88%低いシャンファー距離を達成する。
本研究では,ビズオタクティルポーズ推定タスクにおいて,このフレームワークが35%,64%の角度誤差を減少させることを示す。
さらに, 形状を明示的に完成することから, 6次元オブジェクトの利得を推定する枠組みを緩和する。
最終的に、我々のフレームワークは、現実世界のロボットプラットフォーム上で、シミュレートから現実への移動に堅牢なモデルを生成する。
関連論文リスト
- GenFlow: Generalizable Recurrent Flow for 6D Pose Refinement of Novel Objects [14.598853174946656]
我々は、新しいオブジェクトへの精度と一般化を可能にするアプローチであるGenFlowを提案する。
提案手法は, レンダリング画像と観察画像との間の光学的流れを予測し, 6次元ポーズを反復的に洗練する。
3次元形状の制約と、エンドツーエンドの微分システムから学習した一般化可能な幾何学的知識により、性能を向上させる。
論文 参考訳(メタデータ) (2024-03-18T06:32:23Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - OVE6D: Object Viewpoint Encoding for Depth-based 6D Object Pose
Estimation [12.773040823634908]
単一深度画像と対象物マスクからモデルに基づく6次元オブジェクトのポーズ推定を行うために,OVE6Dと呼ばれる普遍的なフレームワークを提案する。
われわれのモデルはShapeNetから生成された純粋に合成されたデータを用いて訓練されており、既存のほとんどの方法とは異なり、微調整なしで新しい現実世界のオブジェクトをうまく一般化する。
OVE6Dは、現実世界のトレーニングデータを用いて、個々のオブジェクトやデータセットに特化して訓練された、現代の深層学習に基づくポーズ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-02T12:51:33Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。