論文の概要: USV Obstacles Detection and Tracking in Marine Environments
- arxiv url: http://arxiv.org/abs/2511.07950v1
- Date: Wed, 12 Nov 2025 01:30:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.565021
- Title: USV Obstacles Detection and Tracking in Marine Environments
- Title(参考訳): 海洋環境におけるUSV障害物の検出と追跡
- Authors: Yara AlaaEldin, Enrico Simetti, Francesca Odone,
- Abstract要約: 海洋環境における無人表面車両(USV)のロバストな障害物検出・追跡システムの開発は課題である。
過去数年間、ジェノヴァ大学のGRAAL研究所によってこの分野の研究が進められている。
- 参考スコア(独自算出の注目度): 2.2004329719175333
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developing a robust and effective obstacle detection and tracking system for Unmanned Surface Vehicle (USV) at marine environments is a challenging task. Research efforts have been made in this area during the past years by GRAAL lab at the university of Genova that resulted in a methodology for detecting and tracking obstacles on the image plane and, then, locating them in the 3D LiDAR point cloud. In this work, we continue on the developed system by, firstly, evaluating its performance on recently published marine datasets. Then, we integrate the different blocks of the system on ROS platform where we could test it in real-time on synchronized LiDAR and camera data collected in various marine conditions available in the MIT marine datasets. We present a thorough experimental analysis of the results obtained using two approaches; one that uses sensor fusion between the camera and LiDAR to detect and track the obstacles and the other uses only the LiDAR point cloud for the detection and tracking. In the end, we propose a hybrid approach that merges the advantages of both approaches to build an informative obstacles map of the surrounding environment to the USV.
- Abstract(参考訳): 海洋環境における無人表面車両(USV)の堅牢かつ効果的な障害物検出・追跡システムの開発は課題である。
この領域では過去数年間、ジェノヴァ大学のGRAAL研究所が画像平面上の障害物を検出し、追跡する手法を考案し、3D LiDAR点雲に配置した。
本研究は,最近公表された海洋データセットの性能を評価することにより,開発を継続するものである。
次に、ROSプラットフォーム上のシステムのさまざまなブロックを統合し、同期LiDARとカメラデータを、MIT海洋データセットで利用可能なさまざまな海洋条件でリアルタイムにテストできるようにします。
本稿では,カメラとLiDARのセンサ融合による障害物の検出と追跡を行う方法と,検出と追跡にLiDAR点雲のみを使用する方法の2つのアプローチを用いて得られた結果について,徹底的な実験的検討を行った。
最後に, 周辺環境の視覚的障害物マップをUSVに構築するために, 両アプローチの利点を融合したハイブリッドアプローチを提案する。
関連論文リスト
- A New Adversarial Perspective for LiDAR-based 3D Object Detection [15.429996348453967]
我々は,LiDARでスキャンした2つのランダム物体(水霧と煙)の点雲からなる実世界のデータセット(ROLiD)を紹介する。
そこで我々は,PCS-GAN と命名された動き・内容分解生成対向ネットワークを用いた点雲列生成手法を提案する。
実験により, ランダム物体に基づく対向的摂動が車両検出を効果的に欺き, 3次元物体検出モデルの認識率を低下させることを示した。
論文 参考訳(メタデータ) (2024-12-17T15:36:55Z) - Deep Learning-Based Object Detection in Maritime Unmanned Aerial Vehicle
Imagery: Review and Experimental Comparisons [10.75221614844458]
まず,海洋UAVにおける物体検出に関する4つの課題,すなわち,対象特性の多様性,デバイス制限,海洋環境の多様性,データセットの不足について要約する。
次に,UAVの航空画像・映像データセットを概観し,MS2ship という海洋UAV航空データセットを船体検出のために提案する。
論文 参考訳(メタデータ) (2023-11-14T07:20:38Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection Systems [13.046347364043594]
自動運転では、LiDARとレーダーは環境認識に不可欠である。
最近の最先端の研究は、レーダーとLiDARの融合が悪天候の堅牢な検出につながることを明らかにしている。
鳥眼ビュー融合学習に基づくアンカーボックスフリー物体検出システムを提案する。
論文 参考訳(メタデータ) (2022-11-11T10:24:42Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。