論文の概要: Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation
- arxiv url: http://arxiv.org/abs/2211.00960v1
- Date: Wed, 2 Nov 2022 08:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 14:14:36.175928
- Title: Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation
- Title(参考訳): 視覚支援ロボット操作のための曖昧性を考慮したマルチオブジェクトポーズ最適化
- Authors: Myung-Hwan Jeon, Jeongyun Kim, Jee-Hwan Ryu, and Ayoung Kim
- Abstract要約: あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
- 参考スコア(独自算出の注目度): 17.440729138126162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6D object pose estimation aims to infer the relative pose between the object
and the camera using a single image or multiple images. Most works have focused
on predicting the object pose without associated uncertainty under occlusion
and structural ambiguity (symmetricity). However, these works demand prior
information about shape attributes, and this condition is hardly satisfied in
reality; even asymmetric objects may be symmetric under the viewpoint change.
In addition, acquiring and fusing diverse sensor data is challenging when
extending them to robotics applications. Tackling these limitations, we present
an ambiguity-aware 6D object pose estimation network, PrimA6D++, as a generic
uncertainty prediction method. The major challenges in pose estimation, such as
occlusion and symmetry, can be handled in a generic manner based on the
measured ambiguity of the prediction. Specifically, we devise a network to
reconstruct the three rotation axis primitive images of a target object and
predict the underlying uncertainty along each primitive axis. Leveraging the
estimated uncertainty, we then optimize multi-object poses using visual
measurements and camera poses by treating it as an object SLAM problem. The
proposed method shows a significant performance improvement in T-LESS and
YCB-Video datasets. We further demonstrate real-time scene recognition
capability for visually-assisted robot manipulation. Our code and supplementary
materials are available at https://github.com/rpmsnu/PrimA6D.
- Abstract(参考訳): 6Dオブジェクトのポーズ推定は、オブジェクトとカメラの間の相対的なポーズを、1つの画像または複数の画像を用いて推測することを目的としている。
ほとんどの研究は、オクルージョンと構造的あいまいさ(対称性)の下で、関連する不確実性なしに物体のポーズを予測することに焦点を当てている。
しかし、これらの研究は形状特性に関する事前情報を必要としており、この条件は実際には満たされていない。
さらに、多様なセンサーデータの取得と利用は、ロボットアプリケーションへの拡張において困難である。
そこで,これらの制約に取り組むために,曖昧性を考慮した6次元物体ポーズ推定ネットワークprima6d++を汎用的不確実性予測手法として提案する。
咬合や対称性などのポーズ推定における主な課題は、予測の曖昧さの測定に基づいて汎用的に扱うことができる。
具体的には、対象物体の3つの回転軸原始像を再構成し、各原始軸に沿った基礎となる不確かさを予測するネットワークを考案する。
推定不確実性を生かして、視覚的計測とカメラによる多目的ポーズをオブジェクトSLAM問題として扱うことで最適化する。
提案手法は,T-LESS および YCB-Video データセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
コードと補足資料はhttps://github.com/rpmsnu/prima6d.com/で入手できます。
関連論文リスト
- BOP-Distrib: Revisiting 6D Pose Estimation Benchmark for Better Evaluation under Visual Ambiguities [0.7499722271664147]
6次元ポーズ推定は、カメラの観察を最もよく説明する対象のポーズを決定することを目的としている。
現在、6次元ポーズ推定法は、その基礎となる真理アノテーションに対して、視覚的曖昧性は、グローバルなオブジェクト対称性にのみ関連していると考えるデータセット上でベンチマークされている。
本稿では,画像内の物体表面の視認性を考慮し,各画像に特有の6次元ポーズ分布を付加したデータセットのアノテート手法を提案する。
論文 参考訳(メタデータ) (2024-08-30T13:52:26Z) - DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - Extreme Two-View Geometry From Object Poses with Diffusion Models [21.16779160086591]
オブジェクト先行のパワーを利用して、極端な視点変化に直面した2次元幾何学を正確に決定する。
実験では, 大局的な視点変化に対して, 突如として頑健さと弾力性を示した。
論文 参考訳(メタデータ) (2024-02-05T08:18:47Z) - Context-aware 6D Pose Estimation of Known Objects using RGB-D data [3.48122098223937]
6Dオブジェクトのポーズ推定は、コンピュータビジョンとロボット工学の分野で研究トピックとなっている。
私たちは、以前の作業とは異なり、コンテキストアウェアなアーキテクチャを提示します。
実験の結果,LineMODデータセットの精度は約3.2%向上した。
論文 参考訳(メタデータ) (2022-12-11T18:01:01Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - VIPose: Real-time Visual-Inertial 6D Object Pose Tracking [3.44942675405441]
本稿では,オブジェクトのポーズ追跡問題にリアルタイムに対処するために,VIPoseと呼ばれる新しいディープニューラルネットワーク(DNN)を提案する。
重要な貢献は、オブジェクトの相対的な6Dポーズを予測するために視覚的および慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
このアプローチでは、最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらなるメリットがある。
論文 参考訳(メタデータ) (2021-07-27T06:10:23Z) - Deep Bingham Networks: Dealing with Uncertainty and Ambiguity in Pose
Estimation [74.76155168705975]
Deep Bingham Networks (DBN)は、3Dデータに関するほぼすべての実生活アプリケーションで発生するポーズ関連の不確実性と曖昧性を扱うことができる。
DBNは、(i)異なる分布モードを生成できる多仮説予測ヘッドにより、アートダイレクトポーズ回帰ネットワークの状態を拡張する。
トレーニング中のモードや後方崩壊を回避し,数値安定性を向上させるための新しいトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-20T19:20:26Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。