論文の概要: Self-Supervised Real-Time Tracking of Military Vehicles in Low-FPS UAV Footage
- arxiv url: http://arxiv.org/abs/2507.05229v1
- Date: Mon, 07 Jul 2025 17:39:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.544093
- Title: Self-Supervised Real-Time Tracking of Military Vehicles in Low-FPS UAV Footage
- Title(参考訳): 低FPSUAV飛行場における軍用車両の自律的リアルタイム追尾
- Authors: Markiyan Kostiv, Anatolii Adamovskyi, Yevhen Cherniavskyi, Mykyta Varenyk, Ostap Viniavskyi, Igor Krashenyi, Oles Dobosevych,
- Abstract要約: 無人航空機(UAV)を実際の戦闘シナリオで移動させることで捉えた低フレームレートのビデオにオブジェクトを関連付けることは複雑である。
単一フレームアノテーションからのインスタンス関連学習がこれらの課題を克服する方法について述べる。
- 参考スコア(独自算出の注目度): 1.4957552011362911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking (MOT) aims to maintain consistent identities of objects across video frames. Associating objects in low-frame-rate videos captured by moving unmanned aerial vehicles (UAVs) in actual combat scenarios is complex due to rapid changes in object appearance and position within the frame. The task becomes even more challenging due to image degradation caused by cloud video streaming and compression algorithms. We present how instance association learning from single-frame annotations can overcome these challenges. We show that global features of the scene provide crucial context for low-FPS instance association, allowing our solution to be robust to distractors and gaps in detections. We also demonstrate that such a tracking approach maintains high association quality even when reducing the input image resolution and latent representation size for faster inference. Finally, we present a benchmark dataset of annotated military vehicles collected from publicly available data sources. This paper was initially presented at the NATO Science and Technology Organization Symposium (ICMCIS) organized by the Information Systems Technology (IST)Scientific and Technical Committee, IST-209-RSY - the ICMCIS, held in Oeiras, Portugal, 13-14 May 2025.
- Abstract(参考訳): マルチオブジェクトトラッキング(MOT)は、ビデオフレーム全体にわたるオブジェクトの一貫性のあるIDを維持することを目的としている。
実際の戦闘シナリオで無人航空機(UAV)を移動させることで捉えた低フレームレートのビデオにオブジェクトを関連付けることは、フレーム内のオブジェクトの出現と位置が急速に変化するため複雑である。
このタスクは、クラウドビデオストリーミングと圧縮アルゴリズムによる画像劣化によってさらに困難になる。
単一フレームアノテーションからのインスタンス関連学習がこれらの課題を克服する方法について述べる。
現場のグローバルな特徴は、低FPSインスタンスアソシエーションにとって重要なコンテキストを提供し、検出の障害やギャップに対してソリューションが堅牢であることを示します。
また、高速な推論のために、入力画像の解像度と潜在表現サイズを小さくしても、そのような追跡手法は高い関連性を維持することを実証する。
最後に、公開されているデータソースから収集した注釈付き軍用車両のベンチマークデータセットを示す。
本論文は,2025年5月13~14日にポルトガルのオアイラスで開催された情報システム技術技術委員会 (IST) が主催する NATO Science and Technology Organization Symposium (ICMCIS) で発表された。
関連論文リスト
- Tracking the Unstable: Appearance-Guided Motion Modeling for Robust Multi-Object Tracking in UAV-Captured Videos [58.156141601478794]
マルチオブジェクトトラッキング(UAVT)は、ビデオのフレーム間で一貫したアイデンティティを維持しながら、複数のオブジェクトを追跡することを目的としている。
既存の手法は、通常、動作キューと外観を別々にモデル化し、それらの相互作用を見渡して、最適下追跡性能をもたらす。
本稿では、AMC行列とMTCモジュールの2つの主要コンポーネントを通して、外観と動きの手がかりを利用するAMOTを提案する。
論文 参考訳(メタデータ) (2025-08-03T12:06:47Z) - Lightweight Multi-Frame Integration for Robust YOLO Object Detection in Videos [11.532574301455854]
マルチフレームビデオオブジェクト検出のための高効率な手法を提案する。
我々の手法は、特に軽量モデルにおいて堅牢性を改善する。
我々はBOAT360ベンチマークデータセットを寄贈し、現実のシナリオに挑戦するマルチフレームビデオオブジェクト検出における将来の研究を支援する。
論文 参考訳(メタデータ) (2025-06-25T15:49:07Z) - Spatio-temporal Graph Learning on Adaptive Mined Key Frames for High-performance Multi-Object Tracking [5.746443489229576]
キーフレーム抽出(KFE)モジュールは、強化学習を利用して動画を適応的にセグメントする。
フレーム内フィーチャーフュージョン(IFF)モジュールは、ターゲットと周辺オブジェクト間の情報交換を容易にするために、グラフ畳み込みネットワーク(GCN)を使用する。
提案したトラッカーはMOT17データセット上で印象的な結果が得られる。
論文 参考訳(メタデータ) (2025-01-17T11:36:38Z) - Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - Analysis of Unstructured High-Density Crowded Scenes for Crowd Monitoring [55.2480439325792]
我々は,人群集の組織的動きを検出する自動システムの開発に興味がある。
コンピュータビジョンアルゴリズムは、混雑したシーンのビデオから情報を抽出することができる。
組織化されたコホート内の参加者数を見積もることができます。
論文 参考訳(メタデータ) (2024-08-06T22:09:50Z) - View-Centric Multi-Object Tracking with Homographic Matching in Moving UAV [43.37259596065606]
無人航空機(UAV)のシナリオの移動における多目的追跡(MOT)の課題に対処する。
シーン背景の変化は、従来のフレーム間オブジェクトIOUアソシエーションメソッドを非効率にするだけでなく、オブジェクトに大きなビューシフトをもたらす。
このフレームワークは,MOTの課題を解決するために,シーン変更に固有のHomographyを初めて活用する。
論文 参考訳(メタデータ) (2024-03-16T06:48:33Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - Dense Video Object Captioning from Disjoint Supervision [77.47084982558101]
本稿では,高密度ビデオオブジェクトキャプションのための新しいタスクとモデルを提案する。
このタスクは、ビデオにおける空間的および時間的局所化を統一する。
我々は、この新しいタスクの強力なベースラインにおいて、我々のモデルがどのように改善されているかを示す。
論文 参考訳(メタデータ) (2023-06-20T17:57:23Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - AIM 2020 Challenge on Video Temporal Super-Resolution [118.46127362093135]
Video Temporal Super-Resolution (VTSR) の第2回AIMチャレンジ
本稿では,ビデオ・テンポラル・スーパー・リゾリューション(VTSR)における第2回AIM課題について報告する。
論文 参考訳(メタデータ) (2020-09-28T00:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。