論文の概要: Vision-in-the-loop Simulation for Deep Monocular Pose Estimation of UAV in Ocean Environment
- arxiv url: http://arxiv.org/abs/2502.05409v1
- Date: Sat, 08 Feb 2025 02:19:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:35:43.885250
- Title: Vision-in-the-loop Simulation for Deep Monocular Pose Estimation of UAV in Ocean Environment
- Title(参考訳): 海洋環境におけるUAVの深部モノクラーポース推定のためのループ内視覚シミュレーション
- Authors: Maneesha Wickramasuriya, Beomyeol Yu, Taeyoung Lee, Murray Snyder,
- Abstract要約: 本論文では,海洋環境下でのUAVの深部単分子ポーズ推定のためのビジョン・イン・ザ・ループシミュレーション環境を提案する。
ガウススプラッティングの最近の進歩を生かしたフォトリアリスティックな3次元仮想環境を提案する。
結果として得られたシミュレーションにより、飛行ソフトウェア、ハードウェア、深層単眼のポーズ推定スキームのすべての側面を検証しながら、飛行操作の屋内テストが可能になる。
- 参考スコア(独自算出の注目度): 0.21427777919040414
- License:
- Abstract: This paper proposes a vision-in-the-loop simulation environment for deep monocular pose estimation of a UAV operating in an ocean environment. Recently, a deep neural network with a transformer architecture has been successfully trained to estimate the pose of a UAV relative to the flight deck of a research vessel, overcoming several limitations of GPS-based approaches. However, validating the deep pose estimation scheme in an actual ocean environment poses significant challenges due to the limited availability of research vessels and the associated operational costs. To address these issues, we present a photo-realistic 3D virtual environment leveraging recent advancements in Gaussian splatting, a novel technique that represents 3D scenes by modeling image pixels as Gaussian distributions in 3D space, creating a lightweight and high-quality visual model from multiple viewpoints. This approach enables the creation of a virtual environment integrating multiple real-world images collected in situ. The resulting simulation enables the indoor testing of flight maneuvers while verifying all aspects of flight software, hardware, and the deep monocular pose estimation scheme. This approach provides a cost-effective solution for testing and validating the autonomous flight of shipboard UAVs, specifically focusing on vision-based control and estimation algorithms.
- Abstract(参考訳): 本論文では,海洋環境下でのUAVの深部単分子ポーズ推定のためのビジョン・イン・ザ・ループシミュレーション環境を提案する。
近年、トランスアーキテクチャを持つディープニューラルネットワークは、研究船のフライトデッキに対するUAVのポーズを推定し、GPSベースのアプローチのいくつかの制限を克服するために、うまく訓練されている。
しかし、実際の海洋環境における深部ポーズ推定手法の検証は、研究船の可用性の限界と関連する運用コストのために大きな課題を生んでいる。
画像画素を3次元空間内のガウス分布としてモデル化し、複数の視点から軽量で高品質な視覚モデルを作成することにより、3次元シーンを表現する新しい技術であるガウススプラッティングの最近の進歩を生かした写真現実的な3D仮想環境を提案する。
このアプローチにより、仮想環境の構築が可能となり、複数の現実世界の画像がその場で収集される。
結果として得られたシミュレーションにより、飛行ソフトウェア、ハードウェア、深層単眼のポーズ推定スキームのすべての側面を検証しながら、飛行操作の屋内テストが可能になる。
このアプローチは、特にビジョンベースの制御と推定アルゴリズムに焦点を当てた、船舶UAVの自律飛行のテストと検証のためのコスト効率の良いソリューションを提供する。
関連論文リスト
- FrontierNet: Learning Visual Cues to Explore [54.8265603996238]
この研究は、3Dマップからゴールポーズを抽出する制限に対処するため、効率的な自律探索に2Dビジュアルキューを活用することを目的としている。
本研究では,FrontierNetをコアコンポーネントとする画像のみのフロンティア探索システムを提案する。
提案手法は既存の3次元探査システムに代わるもので,早期探査効率が16%向上した。
論文 参考訳(メタデータ) (2025-01-08T16:25:32Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - Calibrating Panoramic Depth Estimation for Practical Localization and
Mapping [20.621442016969976]
周囲環境の絶対深度値は, 局所化, ナビゲーション, 3次元構造推定など, 様々な補助技術にとって重要な手がかりとなる。
本研究では,パノラマ画像から推定される精度の高い深度が,3次元情報を必要とする幅広い下流タスクに対して,強力で軽量な入力として機能することを提案する。
論文 参考訳(メタデータ) (2023-08-27T04:50:05Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - Aerial Monocular 3D Object Detection [67.20369963664314]
DVDETは2次元画像空間と3次元物理空間の両方で空中単分子3次元物体検出を実現するために提案される。
高度視差変形問題に対処するため,新しい測地変形変換モジュールを提案する。
より多くの研究者がこの領域を調査するよう促すため、データセットと関連するコードをリリースします。
論文 参考訳(メタデータ) (2022-08-08T08:32:56Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Integration of the 3D Environment for UAV Onboard Visual Object Tracking [7.652259812856325]
無人航空機からの単一の視覚的物体追跡は、根本的な課題となる。
本研究では,モデルフリーのビジュアルオブジェクトトラッカー,スパース3D再構成,状態推定器を組み合わせたパイプラインを提案する。
画像空間ではなく3次元空間における目標位置を表現することにより,エゴモーション時のトラッキングを安定化させる。
論文 参考訳(メタデータ) (2020-08-06T18:37:29Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。