論文の概要: DeepURL: Deep Pose Estimation Framework for Underwater Relative
Localization
- arxiv url: http://arxiv.org/abs/2003.05523v4
- Date: Thu, 21 Jan 2021 18:10:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:35:49.453043
- Title: DeepURL: Deep Pose Estimation Framework for Underwater Relative
Localization
- Title(参考訳): deepurl:水中相対位置推定のための深部ポーズ推定フレームワーク
- Authors: Bharat Joshi, Md Modasshir, Travis Manderson, Hunter Damron, Marios
Xanthidis, Alberto Quattrini Li, Ioannis Rekleitis, Gregory Dudek
- Abstract要約: 本研究では,自律型水中車両(AUV)の6次元相対姿勢を1つの画像から決定するためのリアルタイム深層学習手法を提案する。
画像間翻訳ネットワークを用いて、レンダリングされた実画像間のギャップを埋めて、トレーニング用合成画像を生成する。
- 参考スコア(独自算出の注目度): 21.096166727043077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a real-time deep learning approach for determining
the 6D relative pose of Autonomous Underwater Vehicles (AUV) from a single
image. A team of autonomous robots localizing themselves in a
communication-constrained underwater environment is essential for many
applications such as underwater exploration, mapping, multi-robot convoying,
and other multi-robot tasks. Due to the profound difficulty of collecting
ground truth images with accurate 6D poses underwater, this work utilizes
rendered images from the Unreal Game Engine simulation for training. An
image-to-image translation network is employed to bridge the gap between the
rendered and the real images producing synthetic images for training. The
proposed method predicts the 6D pose of an AUV from a single image as 2D image
keypoints representing 8 corners of the 3D model of the AUV, and then the 6D
pose in the camera coordinates is determined using RANSAC-based PnP.
Experimental results in real-world underwater environments (swimming pool and
ocean) with different cameras demonstrate the robustness and accuracy of the
proposed technique in terms of translation error and orientation error over the
state-of-the-art methods. The code is publicly available.
- Abstract(参考訳): 本稿では,自律型水中車両(AUV)の6次元相対姿勢を1つの画像から決定するためのリアルタイム深層学習手法を提案する。
通信に制約のある水中環境に自在に配置する自律ロボットチームは、水中探査、マッピング、マルチロボット輸送、その他のマルチロボットタスクなど、多くのアプリケーションで不可欠である。
水中での正確な6Dポーズで地上の真実画像を集めることの難しさから、この研究はUnreal Game Engineシミュレーションのレンダリング画像をトレーニングに利用している。
画像間翻訳ネットワークを用いて、レンダリングと実画像とのギャップを埋めて、トレーニング用合成画像を生成する。
提案手法は、AUVの3Dモデルの8角を表す2D画像キーポイントとして、単一画像からAUVの6Dポーズを予測し、RANSACベースのPnPを用いて、カメラ座標における6Dポーズを決定する。
異なるカメラを用いた実世界の水中環境(プールと海洋)における実験結果から,提案手法の頑健さと精度を,最先端手法による翻訳誤差と配向誤差の観点から実証した。
コードは公開されている。
関連論文リスト
- FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - Model-Based Underwater 6D Pose Estimation from RGB [1.9160624126555885]
本研究では,2次元物体検出を応用して,異なる水中シナリオにおける6次元ポーズ推定を確実に計算する手法を提案する。
すべてのオブジェクトとシーンは、オブジェクト検出とポーズ推定のためのアノテーションを含むオープンソースのデータセットで利用可能である。
論文 参考訳(メタデータ) (2023-02-14T04:27:03Z) - Towards Hard-pose Virtual Try-on via 3D-aware Global Correspondence
Learning [70.75369367311897]
3D対応のグローバルな対応は、グローバルな意味的相関、局所的な変形、および3D人体の幾何学的先行を共同でエンコードする信頼性のあるフローである。
対向ジェネレータは、3D認識フローによって歪んだ衣服と、対象者の画像とを入力として、フォトリアリスティックな試着結果を合成する。
論文 参考訳(メタデータ) (2022-11-25T12:16:21Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Learning 6D Pose Estimation from Synthetic RGBD Images for Robotic
Applications [0.6299766708197883]
提案したパイプラインは、興味のある対象のために大量の写真リアリスティックなRGBD画像を生成することができる。
オブジェクト検出器YOLO-V4-tinyと6次元ポーズ推定アルゴリズムPVN3Dを統合し,リアルタイム2次元ポーズ推定手法を開発した。
結果として得られたネットワークは、LineModデータセットで評価した場合の最先端手法と比較して、競合性能を示す。
論文 参考訳(メタデータ) (2022-08-30T14:17:15Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Perspective Flow Aggregation for Data-Limited 6D Object Pose Estimation [121.02948087956955]
宇宙や水中の深層などのいくつかのアプリケーションでは、実際の画像を取得することは、注釈のないものであっても、事実上不可能である。
本稿では,合成画像のみに限定してトレーニングできる手法を提案する。
これは、アノテートされた実画像を必要としない場合、トレーニングのためにアノテートされた実画像を必要とするメソッドと同等に動作し、20個の実画像を使用する場合、かなりパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-03-18T10:20:21Z) - Where to drive: free space detection with one fisheye camera [1.7499351967216341]
本稿では,Unity3Dに基づく合成学習データの利用を提案する。
仮想魚眼カメラを作成するために5パスのアルゴリズムが使用される。
以上の結果から,合成魚眼画像が深層学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-11-11T14:36:45Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - SilhoNet-Fisheye: Adaptation of A ROI Based Object Pose Estimation
Network to Monocular Fisheye Images [15.573003283204958]
本稿では、ROIに基づく6Dオブジェクトのポーズ推定手法を魚眼画像に適用するための新しいフレームワークを提案する。
また、6Dオブジェクトポーズと2Dバウンディングボックスアノテーションを備えたUWHandlesと呼ばれる魚眼画像データセットも提供しています。
論文 参考訳(メタデータ) (2020-02-27T19:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。