論文の概要: SatSAM2: Motion-Constrained Video Object Tracking in Satellite Imagery using Promptable SAM2 and Kalman Priors
- arxiv url: http://arxiv.org/abs/2511.18264v2
- Date: Tue, 25 Nov 2025 04:58:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 15:01:35.373407
- Title: SatSAM2: Motion-Constrained Video Object Tracking in Satellite Imagery using Promptable SAM2 and Kalman Priors
- Title(参考訳): SatSAM2: Promptable SAM2 と Kalman Priors を用いた衛星画像における動画物体追跡
- Authors: Ruijie Fan, Junyan Ye, Huan Chen, Zilong Huang, Xiaolei Wang, Weijia Li,
- Abstract要約: SatSAM2はSAM2上に作られたゼロショットの衛星ビデオトラッカーで、基礎モデルをリモートセンシング領域に適応させるように設計されている。
SatSAM2は2つのコアモジュールを導入している: KFCMM (Kalman Filter-based Constrained Motion Module) と、動きのダイナミクスと信頼性に基づいたトラッキング状態を制御するMotion-Constrained State Machine (MCSM) である。
- 参考スコア(独自算出の注目度): 27.70977432719396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing satellite video tracking methods often struggle with generalization, requiring scenario-specific training to achieve satisfactory performance, and are prone to track loss in the presence of occlusion. To address these challenges, we propose SatSAM2, a zero-shot satellite video tracker built on SAM2, designed to adapt foundation models to the remote sensing domain. SatSAM2 introduces two core modules: a Kalman Filter-based Constrained Motion Module (KFCMM) to exploit temporal motion cues and suppress drift, and a Motion-Constrained State Machine (MCSM) to regulate tracking states based on motion dynamics and reliability. To support large-scale evaluation, we propose MatrixCity Video Object Tracking (MVOT), a synthetic benchmark containing 1,500+ sequences and 157K annotated frames with diverse viewpoints, illumination, and occlusion conditions. Extensive experiments on two satellite tracking benchmarks and MVOT show that SatSAM2 outperforms both traditional and foundation model-based trackers, including SAM2 and its variants. Notably, on the OOTB dataset, SatSAM2 achieves a 5.84% AUC improvement over state-of-the-art methods. Our code and dataset will be publicly released to encourage further research.
- Abstract(参考訳): 既存の衛星ビデオ追跡手法は、しばしば一般化に苦慮し、良好な性能を達成するためにシナリオ固有の訓練を必要とし、閉塞の有無の損失を追跡する傾向にある。
これらの課題に対処するために,SAM2上に構築されたゼロショット衛星ビデオトラッカーであるSatSAM2を提案する。
SatSAM2は2つのコアモジュールを導入している: KFCMM (Kalman Filter-based Constrained Motion Module) と、動きのダイナミクスと信頼性に基づいたトラッキング状態を制御するMotion-Constrained State Machine (MCSM) である。
大規模評価を支援するために,1500以上のシーケンスと157Kの注釈付きフレームを含む合成ベンチマークである MatrixCity Video Object Tracking (MVOT) を提案する。
2つの衛星追跡ベンチマークとMVOTによる大規模な実験により、SatSAM2はSAM2とその変種を含む、伝統的なモデルベーストラッカーと基礎モデルベーストラッカーの両方より優れていることが示された。
特にOOTBデータセットでは、SatSAM2は最先端のメソッドよりも5.84%のAUC改善を実現している。
私たちのコードとデータセットは、さらなる研究を促進するために公開されます。
関連論文リスト
- DeTracker: Motion-decoupled Vehicle Detection and Tracking in Unstabilized Satellite Videos [34.62299054989923]
DeTrackerは、不安定な衛星ビデオに適した共同検出・追跡フレームワークである。
我々は,衛星プラットフォームの動きと真の物体の動きを分離するGlobal-Local Motion Decoupling (GLMD)モジュールを導入する。
また,多方向および多速度プラットフォーム動作をシミュレートする新しいベンチマークデータセットであるSDM-Car-SUを構築した。
論文 参考訳(メタデータ) (2026-01-14T07:22:44Z) - Benchmarking SAM2-based Trackers on FMOX [1.5866079116942815]
高速移動物体(FMO)を含むデータセット上で,高性能トラッカー(SAM2,EfficientTAM,DAM4SAM,SAmuraI)のベンチマークを行う。
トラッカーのDAM4SAMとSAmuraIは、より困難なシーケンスでうまく機能する。
論文 参考訳(メタデータ) (2025-12-10T13:21:09Z) - SAM2-UNeXT: An Improved High-Resolution Baseline for Adapting Foundation Models to Downstream Segmentation Tasks [50.97089872043121]
SAM2-UNeXTはSAM2-UNetの中核となる原理を基盤とした高度なフレームワークである。
我々は、補助的なDINOv2エンコーダの統合によりSAM2の表現能力を拡張する。
我々のアプローチは、単純なアーキテクチャでより正確なセグメンテーションを可能にし、複雑なデコーダ設計の必要性を緩和する。
論文 参考訳(メタデータ) (2025-08-05T15:36:13Z) - Tracking the Unstable: Appearance-Guided Motion Modeling for Robust Multi-Object Tracking in UAV-Captured Videos [58.156141601478794]
マルチオブジェクトトラッキング(UAVT)は、ビデオのフレーム間で一貫したアイデンティティを維持しながら、複数のオブジェクトを追跡することを目的としている。
既存の手法は、通常、動作キューと外観を別々にモデル化し、それらの相互作用を見渡して、最適下追跡性能をもたらす。
本稿では、AMC行列とMTCモジュールの2つの主要コンポーネントを通して、外観と動きの手がかりを利用するAMOTを提案する。
論文 参考訳(メタデータ) (2025-08-03T12:06:47Z) - SAMITE: Position Prompted SAM2 with Calibrated Memory for Visual Object Tracking [58.35852822355312]
Visual Object Tracking (VOT)は、ビデオ内のターゲットを継続的に追跡する自律運転のようなアプリケーションで広く使われている。
これらの問題に対処するために、ビデオ基盤モデルSAM2をVOTに適用し、各フレームの追跡結果をメモリとして符号化し、残りのフレームを自己回帰的に条件付けする手法を提案する。
これらの課題に対処するために,SAM2 上にモジュールを追加して構築した SAMITE モデルを提案する。
論文 参考訳(メタデータ) (2025-07-29T12:11:56Z) - SAM2MOT: A Novel Paradigm of Multi-Object Tracking by Segmentation [11.1906749425206]
Segment Anything 2 (SAM2)は、セグメンテーションを使った堅牢な単一オブジェクト追跡を可能にする。
本稿では,多目的追跡のための新しいトラッキング・バイ・パラダイムであるSAM2MOTを提案する。
SAM2MOTはセグメンテーションマスクから直接トラッキングボックスを生成し、検出精度への依存を減らす。
論文 参考訳(メタデータ) (2025-04-06T15:32:08Z) - Open-World Drone Active Tracking with Goal-Centered Rewards [62.21394499788672]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATは,世界初となるエア・ツー・グラウンド・トラッキング・ベンチマークである。
また,複雑なシナリオにおけるドローン追跡目標の性能向上を目的としたGC-VATを提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - SAMURAI: Adapting Segment Anything Model for Zero-Shot Visual Tracking with Motion-Aware Memory [23.547018300192065]
本稿では,視覚的物体追跡に特化して設計されたSAM 2を改良したSAmuraiを紹介する。
提案した動き認識メモリ選択機構に時間的動作手がかりを組み込むことで、物体の動きを効果的に予測し、マスク選択を洗練し、トレーニングや微調整を必要とせず、堅牢で正確なトラッキングを実現する。
評価では、既存のトラッカーよりも成功率と精度が大幅に向上し、LaSOT$_ext$で7.1%、GOT-10kで3.5%向上した。
論文 参考訳(メタデータ) (2024-11-18T05:59:03Z) - Underwater Camouflaged Object Tracking Meets Vision-Language SAM2 [60.47622353256502]
本研究は,UW-COT220という大規模水中カモフラージュ型物体追跡データセットを提案する。
提案したデータセットに基づいて、本研究はまず、水中環境に挑戦するSAMとSAM2ベースのトラッカーを含む、現在の高度な視覚オブジェクト追跡手法を評価する。
本研究はSAM2よりもSAM2を改良し,水中カモフラージュ物体の複雑度を処理できることを実証した。
論文 参考訳(メタデータ) (2024-09-25T13:10:03Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。