論文の概要: Model-Based Underwater 6D Pose Estimation from RGB
- arxiv url: http://arxiv.org/abs/2302.06821v1
- Date: Tue, 14 Feb 2023 04:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 16:30:23.528223
- Title: Model-Based Underwater 6D Pose Estimation from RGB
- Title(参考訳): RGBによるモデルベース水中6次元位置推定
- Authors: Davide Sapienza, Elena Govi, Sara Aldhaheri, Giorgia Franchini, Marko
Bertognaz, Eloy Roura, \`Eric Pairet, Micaela Verucchi, Paola Ard\'on
- Abstract要約: 本研究では,2次元物体検出法と6次元ポーズ推定法を用いて,異なる水中シナリオにおける物体のポーズを確実に取得する手法を提案する。
提案手法を実時間, 合成条件で検証し, 6次元オブジェクトのポーズ推定に類似したエンド・ツー・エンド手法との比較を行った。
- 参考スコア(独自算出の注目度): 2.529563359433233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object pose estimation underwater allows an autonomous system to perform
tracking and intervention tasks. Nonetheless, underwater target pose estimation
is remarkably challenging due to, among many factors, limited visibility, light
scattering, cluttered environments, and constantly varying water conditions. An
approach is to employ sonar or laser sensing to acquire 3D data, but besides
being costly, the resulting data is normally noisy. For this reason, the
community has focused on extracting pose estimates from RGB input. However, the
literature is scarce and exhibits low detection accuracy. In this work, we
propose an approach consisting of a 2D object detection and a 6D pose
estimation that reliably obtains object poses in different underwater
scenarios. To test our pipeline, we collect and make available a dataset of 4
objects in 10 different real scenes with annotations for object detection and
pose estimation. We test our proposal in real and synthetic settings and
compare its performance with similar end-to-end methodologies for 6D object
pose estimation. Our dataset contains some challenging objects with symmetrical
shapes and poor texture. Regardless of such object characteristics, our
proposed method outperforms stat-of-the-art pose accuracy by ~8%. We finally
demonstrate the reliability of our pose estimation pipeline by doing
experiments with an underwater manipulation in a reaching task.
- Abstract(参考訳): 水中でのオブジェクトのポーズ推定により、自律システムは追跡と介入のタスクを実行できる。
それにもかかわらず、水中のターゲットのポーズ推定は、可視性、光散乱、乱雑な環境、絶えず変化する水環境など、多くの要因の中で著しく困難である。
ソナーやレーザーセンシングを駆使して3dデータを取得するアプローチだが、コストがかかるだけでなく、通常はノイズが発生する。
そのため、コミュニティはRGB入力からポーズ推定を抽出することに重点を置いている。
しかし、文献は乏しく、検出精度も低い。
本研究では,2次元物体検出と6次元ポーズ推定からなるアプローチを提案し,異なる水中シナリオにおける物体のポーズを確実に取得する。
パイプラインをテストするために、オブジェクト検出とポーズ推定のためのアノテーションを備えた10の異なる実シーンで4つのオブジェクトのデータセットを収集し、利用可能にします。
提案手法を実環境および合成環境でテストし,その性能を6次元物体ポーズ推定のエンド・ツー・エンド手法と比較した。
私たちのデータセットには、対称な形状と質感の悪いいくつかの挑戦的なオブジェクトが含まれています。
提案手法は, 対象物の特徴にかかわらず, 精度を約8%向上させる。
着地作業において水中操作による実験を行うことで,ポーズ推定パイプラインの信頼性を実証した。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Object detection and Autoencoder-based 6D pose estimation for highly
cluttered Bin Picking [14.076644545879939]
そこで本研究では,小物体の散らばったシーンにおけるポーズ推定のためのフレームワークを提案する。
本研究では,オブジェクト検出とポーズ推定のための合成データ生成手法の比較を行う。
本稿では,最も正確な推定ポーズを決定するポーズフィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-15T11:01:07Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Pose Estimation of Specular and Symmetrical Objects [0.719973338079758]
ロボット産業では、眼鏡とテクスチャレスの金属部品がユビキタスである。
リッチテクスチャが欠如しているため, 単眼RGBカメラのみを用いた6次元ポーズ推定は困難である。
そこで本研究では,データ駆動型手法を用いて,対象物の6次元ポーズを推定する手法を提案する。
論文 参考訳(メタデータ) (2020-10-31T22:08:46Z) - SHREC 2020 track: 6D Object Pose Estimation [26.4781238445338]
6Dのポーズ推定は、拡張現実、仮想現実、ロボット操作、視覚ナビゲーションに不可欠である。
異なるポーズ推定法は特徴表現やシーン内容によって異なる長所と短所を持つ。
データ駆動方式で6Dポーズを推定する既存の3Dデータセットには、視野角と解像度が制限されている。
論文 参考訳(メタデータ) (2020-10-19T09:45:42Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。