論文の概要: Model-Based Underwater 6D Pose Estimation from RGB
- arxiv url: http://arxiv.org/abs/2302.06821v2
- Date: Fri, 15 Sep 2023 09:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 18:47:31.456060
- Title: Model-Based Underwater 6D Pose Estimation from RGB
- Title(参考訳): RGBによるモデルベース水中6次元位置推定
- Authors: Davide Sapienza, Elena Govi, Sara Aldhaheri, Marko Bertogna, Eloy
Roura, \`Eric Pairet, Micaela Verucchi, Paola Ard\'on
- Abstract要約: 本研究では,2次元物体検出を応用して,異なる水中シナリオにおける6次元ポーズ推定を確実に計算する手法を提案する。
すべてのオブジェクトとシーンは、オブジェクト検出とポーズ推定のためのアノテーションを含むオープンソースのデータセットで利用可能である。
- 参考スコア(独自算出の注目度): 1.9160624126555885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object pose estimation underwater allows an autonomous system to perform
tracking and intervention tasks. Nonetheless, underwater target pose estimation
is remarkably challenging due to, among many factors, limited visibility, light
scattering, cluttered environments, and constantly varying water conditions. An
approach is to employ sonar or laser sensing to acquire 3D data, however, the
data is not clear and the sensors expensive. For this reason, the community has
focused on extracting pose estimates from RGB input. In this work, we propose
an approach that leverages 2D object detection to reliably compute 6D pose
estimates in different underwater scenarios. We test our proposal with 4
objects with symmetrical shapes and poor texture spanning across 33,920
synthetic and 10 real scenes. All objects and scenes are made available in an
open-source dataset that includes annotations for object detection and pose
estimation. When benchmarking against similar end-to-end methodologies for 6D
object pose estimation, our pipeline provides estimates that are 8% more
accurate. We also demonstrate the real world usability of our pose estimation
pipeline on an underwater robotic manipulator in a reaching task.
- Abstract(参考訳): 水中でのオブジェクトのポーズ推定により、自律システムは追跡と介入のタスクを実行できる。
それにもかかわらず、水中のターゲットのポーズ推定は、可視性、光散乱、乱雑な環境、絶えず変化する水環境など、多くの要因の中で著しく困難である。
ソナーやレーザーセンシングを使って3dデータを取得するアプローチだが、データは明確ではなく、センサーは高価である。
そのため、コミュニティはRGB入力からポーズ推定を抽出することに重点を置いている。
本研究では,2次元物体検出を利用して水中の異なるシナリオにおける6次元ポーズ推定を確実に計算する手法を提案する。
提案手法は,33,920の合成シーンと10の実際のシーンにまたがる対称形状と質感の悪い4つのオブジェクトを用いて検証した。
すべてのオブジェクトとシーンは、オブジェクト検出とポーズ推定のためのアノテーションを含むオープンソースのデータセットで利用可能である。
6次元オブジェクトのポーズ推定に類似したエンドツーエンドの方法論をベンチマークすると、パイプラインはより8%精度の高い見積もりを提供する。
また,水中ロボットマニピュレータ上でのポーズ推定パイプラインの到達作業における実際のユーザビリティを実証した。
関連論文リスト
- FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Object detection and Autoencoder-based 6D pose estimation for highly
cluttered Bin Picking [14.076644545879939]
そこで本研究では,小物体の散らばったシーンにおけるポーズ推定のためのフレームワークを提案する。
本研究では,オブジェクト検出とポーズ推定のための合成データ生成手法の比較を行う。
本稿では,最も正確な推定ポーズを決定するポーズフィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-15T11:01:07Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Pose Estimation of Specular and Symmetrical Objects [0.719973338079758]
ロボット産業では、眼鏡とテクスチャレスの金属部品がユビキタスである。
リッチテクスチャが欠如しているため, 単眼RGBカメラのみを用いた6次元ポーズ推定は困難である。
そこで本研究では,データ駆動型手法を用いて,対象物の6次元ポーズを推定する手法を提案する。
論文 参考訳(メタデータ) (2020-10-31T22:08:46Z) - SHREC 2020 track: 6D Object Pose Estimation [26.4781238445338]
6Dのポーズ推定は、拡張現実、仮想現実、ロボット操作、視覚ナビゲーションに不可欠である。
異なるポーズ推定法は特徴表現やシーン内容によって異なる長所と短所を持つ。
データ駆動方式で6Dポーズを推定する既存の3Dデータセットには、視野角と解像度が制限されている。
論文 参考訳(メタデータ) (2020-10-19T09:45:42Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。