論文の概要: Multiple Object Tracking in Video SAR: A Benchmark and Tracking Baseline
- arxiv url: http://arxiv.org/abs/2506.12105v1
- Date: Fri, 13 Jun 2025 06:12:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.193287
- Title: Multiple Object Tracking in Video SAR: A Benchmark and Tracking Baseline
- Title(参考訳): ビデオSARにおける複数物体追跡:ベンチマークと追跡ベースライン
- Authors: Haoxiang Chen, Wei Zhao, Rufei Zhang, Nannan Li, Dongjin Li,
- Abstract要約: マルチオブジェクトトラッキングにはビデオ合成開口レーダ(Video SAR)が使用される。
標的運動によって誘発されるドップラーシフトは、容易に影と間違えられる人工物をもたらす。
この分野での大きな制限は、標準化されたアルゴリズム評価のための公開ベンチマークデータセットの欠如である。
- 参考スコア(独自算出の注目度): 6.467005601813546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of multi-object tracking using video synthetic aperture radar (Video SAR), Doppler shifts induced by target motion result in artifacts that are easily mistaken for shadows caused by static occlusions. Moreover, appearance changes of the target caused by Doppler mismatch may lead to association failures and disrupt trajectory continuity. A major limitation in this field is the lack of public benchmark datasets for standardized algorithm evaluation. To address the above challenges, we collected and annotated 45 video SAR sequences containing moving targets, and named the Video SAR MOT Benchmark (VSMB). Specifically, to mitigate the effects of trailing and defocusing in moving targets, we introduce a line feature enhancement mechanism that emphasizes the positive role of motion shadows and reduces false alarms induced by static occlusions. In addition, to mitigate the adverse effects of target appearance variations, we propose a motion-aware clue discarding mechanism that substantially improves tracking robustness in Video SAR. The proposed model achieves state-of-the-art performance on the VSMB, and the dataset and model are released at https://github.com/softwarePupil/VSMB.
- Abstract(参考訳): ビデオ合成開口レーダ(ビデオSAR)を用いた多物体追跡の文脈では、目標運動によって誘導されるドップラーシフトは、静的閉塞による影と容易に誤認されるアーティファクトとなる。
さらに、ドップラーミスマッチによる標的の外観変化は、関連性障害を引き起こし、軌道の連続性を阻害する可能性がある。
この分野での大きな制限は、標準化されたアルゴリズム評価のための公開ベンチマークデータセットの欠如である。
以上の課題に対処するため、移動目標を含む45の動画SARシーケンスを収集し、VSMB(Video SAR MOT Benchmark)と命名した。
具体的には,移動目標の追尾と脱落の影響を軽減するために,移動影の正の働きを強調し,静的閉塞によって引き起こされる誤報を低減するライン機能強化機構を導入する。
また,映像SARにおけるトラッキングのロバスト性を大幅に向上させる動き認識型手掛かり破棄機構を提案する。
提案したモデルはVSMBで最先端のパフォーマンスを実現し、データセットとモデルはhttps://github.com/softwarePupil/VSMBでリリースされる。
関連論文リスト
- Motion-Aware Concept Alignment for Consistent Video Editing [57.08108545219043]
MoCA-Video (Motion-Aware Concept Alignment in Video) は、画像ドメインのセマンティックミキシングとビデオのギャップを埋めるトレーニング不要のフレームワークである。
生成されたビデオとユーザが提供した参照画像が与えられた後、MoCA-Videoは参照画像のセマンティックな特徴をビデオ内の特定のオブジェクトに注入する。
我々は、標準SSIM、画像レベルLPIPS、時間LPIPSを用いてMoCAの性能を評価し、新しいメトリクスCASS(Conceptual Alignment Shift Score)を導入し、ソースプロンプトと修正ビデオフレーム間の視覚的シフトの一貫性と有効性を評価する。
論文 参考訳(メタデータ) (2025-06-01T13:28:04Z) - A Simple Detector with Frame Dynamics is a Strong Tracker [43.912410355089634]
赤外線物体追跡は、反無人航空機(Anti-UAV)の用途において重要な役割を担っている。
既存のトラッカーは、しばしば収穫されたテンプレート領域に依存し、モーションモデリング機能に制限がある。
我々は,グローバルな検出と動き認識学習を統合することで,トラッキング性能を向上させる,シンプルで効果的な赤外線小物体トラッカーを提案する。
論文 参考訳(メタデータ) (2025-05-08T03:16:03Z) - SOTA: Spike-Navigated Optimal TrAnsport Saliency Region Detection in Composite-bias Videos [50.51658520045165]
Spike-d TrAnsport Saliency Region Detection (SOTA)は、スパイクカメラの強度を活用しつつ、空間次元と時間次元の両方のバイアスを緩和するフレームワークである。
本手法では,微妙なフレーム・ツー・フレームの変動を捉えるために,スパイクに基づくマイクロデビア(SM)を導入する。
SOTAは様々な条件にまたがる不整合を減らして予測を洗練させる。
論文 参考訳(メタデータ) (2025-05-01T08:30:40Z) - DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - SFTrack: A Robust Scale and Motion Adaptive Algorithm for Tracking Small and Fast Moving Objects [2.9803250365852443]
本稿では,無人航空機(UAV)映像における多物体追跡の問題に対処する。
交通監視システムや警察によるリアルタイム容疑者追跡など、様々なUAVアプリケーションにおいて重要な役割を果たしている。
低信頼度検出から対象物体の追跡を開始する新しい追跡戦略を提案する。
論文 参考訳(メタデータ) (2024-10-26T05:09:20Z) - Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Motion-Excited Sampler: Video Adversarial Attack with Sparked Prior [63.11478060678794]
そこで本研究では,前もってモーションアウェアノイズを得るための効果的なモーションエキサイティングサンプリング手法を提案する。
より少ないクエリ数で様々なビデオ分類モデルを攻撃することができる。
論文 参考訳(メタデータ) (2020-03-17T10:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。