論文の概要: Vision-in-the-loop Simulation for Deep Monocular Pose Estimation of UAV in Ocean Environment
- arxiv url: http://arxiv.org/abs/2502.05409v1
- Date: Sat, 08 Feb 2025 02:19:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:35:43.885250
- Title: Vision-in-the-loop Simulation for Deep Monocular Pose Estimation of UAV in Ocean Environment
- Title(参考訳): 海洋環境におけるUAVの深部モノクラーポース推定のためのループ内視覚シミュレーション
- Authors: Maneesha Wickramasuriya, Beomyeol Yu, Taeyoung Lee, Murray Snyder,
- Abstract要約: 本論文では,海洋環境下でのUAVの深部単分子ポーズ推定のためのビジョン・イン・ザ・ループシミュレーション環境を提案する。
ガウススプラッティングの最近の進歩を生かしたフォトリアリスティックな3次元仮想環境を提案する。
結果として得られたシミュレーションにより、飛行ソフトウェア、ハードウェア、深層単眼のポーズ推定スキームのすべての側面を検証しながら、飛行操作の屋内テストが可能になる。
- 参考スコア(独自算出の注目度): 0.21427777919040414
- License:
- Abstract: This paper proposes a vision-in-the-loop simulation environment for deep monocular pose estimation of a UAV operating in an ocean environment. Recently, a deep neural network with a transformer architecture has been successfully trained to estimate the pose of a UAV relative to the flight deck of a research vessel, overcoming several limitations of GPS-based approaches. However, validating the deep pose estimation scheme in an actual ocean environment poses significant challenges due to the limited availability of research vessels and the associated operational costs. To address these issues, we present a photo-realistic 3D virtual environment leveraging recent advancements in Gaussian splatting, a novel technique that represents 3D scenes by modeling image pixels as Gaussian distributions in 3D space, creating a lightweight and high-quality visual model from multiple viewpoints. This approach enables the creation of a virtual environment integrating multiple real-world images collected in situ. The resulting simulation enables the indoor testing of flight maneuvers while verifying all aspects of flight software, hardware, and the deep monocular pose estimation scheme. This approach provides a cost-effective solution for testing and validating the autonomous flight of shipboard UAVs, specifically focusing on vision-based control and estimation algorithms.
- Abstract(参考訳): 本論文では,海洋環境下でのUAVの深部単分子ポーズ推定のためのビジョン・イン・ザ・ループシミュレーション環境を提案する。
近年、トランスアーキテクチャを持つディープニューラルネットワークは、研究船のフライトデッキに対するUAVのポーズを推定し、GPSベースのアプローチのいくつかの制限を克服するために、うまく訓練されている。
しかし、実際の海洋環境における深部ポーズ推定手法の検証は、研究船の可用性の限界と関連する運用コストのために大きな課題を生んでいる。
画像画素を3次元空間内のガウス分布としてモデル化し、複数の視点から軽量で高品質な視覚モデルを作成することにより、3次元シーンを表現する新しい技術であるガウススプラッティングの最近の進歩を生かした写真現実的な3D仮想環境を提案する。
このアプローチにより、仮想環境の構築が可能となり、複数の現実世界の画像がその場で収集される。
結果として得られたシミュレーションにより、飛行ソフトウェア、ハードウェア、深層単眼のポーズ推定スキームのすべての側面を検証しながら、飛行操作の屋内テストが可能になる。
このアプローチは、特にビジョンベースの制御と推定アルゴリズムに焦点を当てた、船舶UAVの自律飛行のテストと検証のためのコスト効率の良いソリューションを提供する。
関連論文リスト
- FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - Calibrating Panoramic Depth Estimation for Practical Localization and
Mapping [20.621442016969976]
周囲環境の絶対深度値は, 局所化, ナビゲーション, 3次元構造推定など, 様々な補助技術にとって重要な手がかりとなる。
本研究では,パノラマ画像から推定される精度の高い深度が,3次元情報を必要とする幅広い下流タスクに対して,強力で軽量な入力として機能することを提案する。
論文 参考訳(メタデータ) (2023-08-27T04:50:05Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Integration of the 3D Environment for UAV Onboard Visual Object Tracking [7.652259812856325]
無人航空機からの単一の視覚的物体追跡は、根本的な課題となる。
本研究では,モデルフリーのビジュアルオブジェクトトラッカー,スパース3D再構成,状態推定器を組み合わせたパイプラインを提案する。
画像空間ではなく3次元空間における目標位置を表現することにより,エゴモーション時のトラッキングを安定化させる。
論文 参考訳(メタデータ) (2020-08-06T18:37:29Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。