論文の概要: Continuous Marine Tracking via Autonomous UAV Handoff
- arxiv url: http://arxiv.org/abs/2507.12763v1
- Date: Thu, 17 Jul 2025 03:35:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.331765
- Title: Continuous Marine Tracking via Autonomous UAV Handoff
- Title(参考訳): 自律型UAVハンドオフによる海上連続追跡
- Authors: Heegyeong Kim, Alice James, Avishkar Seth, Endrowednes Kuantama, Jane Williamson, Yimeng Feng, Richard Han,
- Abstract要約: 本稿では,海産動物,特にサメの連続的,リアルタイム追跡のための自律型UAV視覚システムを提案する。
このシステムは、オンボードコンピュータと、安定したRGB-DカメラとカスタムトレーニングされたOSTrackパイプラインを統合している。
重要なイノベーションは、ドローン間の責任追跡をシームレスに転送するUAVハンドオフプロトコルである。
- 参考スコア(独自算出の注目度): 0.4935992163749761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces an autonomous UAV vision system for continuous, real-time tracking of marine animals, specifically sharks, in dynamic marine environments. The system integrates an onboard computer with a stabilised RGB-D camera and a custom-trained OSTrack pipeline, enabling visual identification under challenging lighting, occlusion, and sea-state conditions. A key innovation is the inter-UAV handoff protocol, which enables seamless transfer of tracking responsibilities between drones, extending operational coverage beyond single-drone battery limitations. Performance is evaluated on a curated shark dataset of 5,200 frames, achieving a tracking success rate of 81.9\% during real-time flight control at 100 Hz, and robustness to occlusion, illumination variation, and background clutter. We present a seamless UAV handoff framework, where target transfer is attempted via high-confidence feature matching, achieving 82.9\% target coverage. These results confirm the viability of coordinated UAV operations for extended marine tracking and lay the groundwork for scalable, autonomous monitoring.
- Abstract(参考訳): 本稿では,海洋環境における海洋生物,特にサメの連続的,リアルタイム追跡のための自律型UAV視覚システムを提案する。
このシステムは、オンボードコンピュータと、安定したRGB-DカメラとカスタムトレーニングされたOSTrackパイプラインを統合し、挑戦的な照明、閉塞、および海の状態下での視覚的識別を可能にする。
重要なイノベーションは、UAV間のハンドオフプロトコルで、ドローン間での責任追跡のシームレスな転送を可能にし、単一ドローンのバッテリー制限を越えて運用範囲を拡大する。
5200フレームのキュレートされたサメのデータセットで、100Hzのリアルタイム飛行制御において81.9\%の追跡成功率を達成するとともに、閉塞、照明の変動、背景のぼかしに対する頑丈さを評価した。
本稿では,高い信頼度を持つ特徴マッチングによってターゲット転送を試み,82.9 % の目標カバレッジを達成できるシームレスな UAV ハンドオフフレームワークを提案する。
これらの結果から, 海上追跡のための協調型UAV運用の実現可能性を確認し, スケーラブルで自律的な監視の基盤を築き上げた。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - WildLive: Near Real-time Visual Wildlife Tracking onboard UAVs [4.215854427679142]
WildLiveは、無人航空機(UAV)で動く高解像度画像のための、ほぼリアルタイムの動物検出と追跡のためのフレームワーク
このシステムは高高度飛行時の運用に適した4Kビデオストリームで、HDで17.81 fps、HDで7.53 fpsのマルチアニマル検出追跡を行う。
我々のデータセットは、ケニアのOl Pejeta Conservancyで収集された4K UAVビデオから、19K以上のフレームにわたる200K以上の注釈付き動物インスタンスで構成されています。
論文 参考訳(メタデータ) (2025-04-14T12:21:16Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - Robust Autonomous Landing of UAV in Non-Cooperative Environments based
on Dynamic Time Camera-LiDAR Fusion [11.407952542799526]
低コストLiDARと双眼カメラを備えたUAVシステムを構築し,非協調環境における自律着陸を実現する。
我々は,LiDARの非繰り返し走査と高いFOVカバレッジ特性を利用して,動的時間深度補完アルゴリズムを考案した。
深度マップに基づいて, 傾斜, 粗度, 安全領域の大きさなどの高層地形情報を導出する。
論文 参考訳(メタデータ) (2020-11-27T14:47:02Z) - Distributed Variable-Baseline Stereo SLAM from two UAVs [17.513645771137178]
本稿では,単眼カメラを1台,IMUを1台搭載した2台のUAVを用いて,視界の重なりと相対距離の測定を行った。
本稿では,glsuavエージェントを自律的に制御するために,分散協調推定方式を提案する。
我々は,高度160mまでの飛行におけるアプローチの有効性を実証し,最先端のVIO手法の能力を大きく超えている。
論文 参考訳(メタデータ) (2020-09-10T12:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。