論文の概要: SDG-Track: A Heterogeneous Observer-Follower Framework for High-Resolution UAV Tracking on Embedded Platforms
- arxiv url: http://arxiv.org/abs/2512.04883v1
- Date: Thu, 04 Dec 2025 15:11:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.237673
- Title: SDG-Track: A Heterogeneous Observer-Follower Framework for High-Resolution UAV Tracking on Embedded Platforms
- Title(参考訳): SDG-Track:組み込みプラットフォーム上での高分解能UAV追跡のための不均一オブザーバ追従フレームワーク
- Authors: Jiawen Wen, Yu Hu, Suixuan Qiu, Jinshan Huang, Xiaowen Chu,
- Abstract要約: エッジデバイス上での小型無人航空機(UAV)のリアルタイム追跡は、根本的な解像度と速度の衝突に直面している。
本稿では,この競合を解消するためにObserver-Followerアーキテクチャを採用するスパース検出ガイドトラッカーを提案する。
地上対空追跡実験では、SDG-Trackはフレーム毎の検出精度の97.2%を維持しながら35.1 FPSシステムスループットを達成した。
- 参考スコア(独自算出の注目度): 11.029096488950414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time tracking of small unmanned aerial vehicles (UAVs) on edge devices faces a fundamental resolution-speed conflict. Downsampling high-resolution imagery to standard detector input sizes causes small target features to collapse below detectable thresholds. Yet processing native 1080p frames on resource-constrained platforms yields insufficient throughput for smooth gimbal control. We propose SDG-Track, a Sparse Detection-Guided Tracker that adopts an Observer-Follower architecture to reconcile this conflict. The Observer stream runs a high-capacity detector at low frequency on the GPU to provide accurate position anchors from 1920x1080 frames. The Follower stream performs high-frequency trajectory interpolation via ROI-constrained sparse optical flow on the CPU. To handle tracking failures from occlusion or model drift caused by spectrally similar distractors, we introduce Dual-Space Recovery, a training-free re-acquisition mechanism combining color histogram matching with geometric consistency constraints. Experiments on a ground-to-air tracking station demonstrate that SDG-Track achieves 35.1 FPS system throughput while retaining 97.2\% of the frame-by-frame detection precision. The system successfully tracks agile FPV drones under real-world operational conditions on an NVIDIA Jetson Orin Nano. Our paper code is publicly available at https://github.com/Jeffry-wen/SDG-Track
- Abstract(参考訳): エッジデバイス上での小型無人航空機(UAV)のリアルタイム追跡は、根本的な解像度と速度の衝突に直面している。
高解像度画像を標準の検出器入力サイズにダウンサンプリングすると、小さなターゲット特性が検出可能な閾値以下に崩壊する。
しかし、リソース制約のあるプラットフォーム上でネイティブな1080pフレームを処理すると、スムーズなジンバル制御にはスループットが不足する。
本稿では,SDG-Trackを提案する。SDG-Trackは,オブザーバ・フォロワーアーキテクチャを取り入れたスパース検出ガイド付きトラッカーである。
Observerストリームは、1920×1080フレームの正確な位置アンカーを提供するために、GPU上で低周波数で高容量検出器を実行する。
Followerストリームは、CPU上のROI制約されたスパース光の流れを介して高周波軌道補間を行う。
そこで我々は,色ヒストグラムと幾何整合性制約を組み合わせたトレーニング不要な再取得機構であるDual-Space Recoveryを導入する。
地上対空追跡実験では、SDG-Trackはフレーム毎の検出精度の97.2倍を維持しながら、35.1 FPSシステムスループットを達成した。
このシステムは、NVIDIA Jetson Orin Nanoの実際の運用条件下での、アジャイルなFPVドローンの追跡に成功している。
私たちの論文コードはhttps://github.com/Jeffry-wen/SDG-Trackで公開されています。
関連論文リスト
- StableTrack: Stabilizing Multi-Object Tracking on Low-Frequency Detections [0.18054741274903915]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて最も困難なタスクの1つである。
現在のアプローチは主に、ビデオストリームの各フレーム内のオブジェクトを追跡することに焦点を当てている。
本稿では,低周波検出における追跡品質を安定させる新しい手法であるStableTrackを提案する。
論文 参考訳(メタデータ) (2025-11-25T15:42:33Z) - CADTrack: Learning Contextual Aggregation with Deformable Alignment for Robust RGBT Tracking [68.71826342377004]
RGB-Thermal (RGBT) トラッキングは、堅牢な全天候物体追跡のために可視および熱赤外モードを活用することを目的としている。
既存のRGBTトラッカーはモダリティの相違を解決するのに苦労している。
RGBT追跡のためのCADTrackと呼ばれる,変形可能なアライメントによるコンテキストアグリゲーション(Contextual Aggregation)を提案する。
論文 参考訳(メタデータ) (2025-11-22T08:10:02Z) - SwiTrack: Tri-State Switch for Cross-Modal Object Tracking [74.15663758681849]
クロスモーダルオブジェクトトラッキング(CMOT)は、ビデオストリームが異なるモード間で切り替える間、ターゲットの一貫性を維持する新しいタスクである。
SwiTrackは3つの特別なストリームを配置することでCMOTを再定義する新しいステートスイッチングフレームワークである。
論文 参考訳(メタデータ) (2025-11-20T10:52:54Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Multiple Object Tracking in Video SAR: A Benchmark and Tracking Baseline [6.467005601813546]
マルチオブジェクトトラッキングにはビデオ合成開口レーダ(Video SAR)が使用される。
標的運動によって誘発されるドップラーシフトは、容易に影と間違えられる人工物をもたらす。
この分野での大きな制限は、標準化されたアルゴリズム評価のための公開ベンチマークデータセットの欠如である。
論文 参考訳(メタデータ) (2025-06-13T06:12:25Z) - ODTFormer: Efficient Obstacle Detection and Tracking with Stereo Cameras Based on Transformer [12.58804521609764]
ODTFormerはTransformerベースのモデルで、障害検出と追跡の両方の問題に対処する。
我々は,最先端の障害物追跡モデルに匹敵する精度を報告し,そのコストはごくわずかである。
論文 参考訳(メタデータ) (2024-03-21T17:59:55Z) - CRSOT: Cross-Resolution Object Tracking using Unaligned Frame and Event
Cameras [43.699819213559515]
既存のRGB-DVSトラッキング用のデータセットは、DVS346カメラで収集される。
我々は、特別に構築されたデータ取得システムを用いて収集された、最初の不整合フレームイベントデータセットCRSOTを構築した。
ゆるやかなRGBイベントデータを用いても、ロバストなトラッキングを実現することのできる、新しい非整列オブジェクト追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T14:20:22Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。