論文の概要: ModTrack: Sensor-Agnostic Multi-View Tracking via Identity-Informed PHD Filtering with Covariance Propagation
- arxiv url: http://arxiv.org/abs/2603.15812v1
- Date: Mon, 16 Mar 2026 18:43:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.948969
- Title: ModTrack: Sensor-Agnostic Multi-View Tracking via Identity-Informed PHD Filtering with Covariance Propagation
- Title(参考訳): ModTrack:Covariance Propagationを用いたアイデンティティインフォームドPHDフィルタによるセンサ非依存多視点トラッキング
- Authors: Aditya Iyer, Jack Roberts, Nora Ayanian,
- Abstract要約: MV-MOT(Multi-View Multi-Object Tracking)は、複数のセンサで観測されるオブジェクトの一貫したアイデンティティをローカライズし、維持することを目的としている。
最近のエンドツーエンドアプローチでは、2D Birdのアイビュー表現とアイデンティティアソシエーションを共同で学習し、高いトラッキング精度を実現することでこの問題に対処している。
本稿では,モジュール型MV-MOTシステムであるModTrackを提案する。
- 参考スコア(独自算出の注目度): 1.0314567485992163
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Multi-View Multi-Object Tracking (MV-MOT) aims to localize and maintain consistent identities of objects observed by multiple sensors. This task is challenging, as viewpoint changes and occlusion disrupt identity consistency across views and time. Recent end-to-end approaches address this by jointly learning 2D Bird's Eye View (BEV) representations and identity associations, achieving high tracking accuracy. However, these methods offer no principled uncertainty accounting and remain tightly coupled to their training configuration, limiting generalization across sensor layouts, modalities, or datasets without retraining. We propose ModTrack, a modular MV-MOT system that matches end-to-end performance while providing cross-modal, sensor-agnostic generalization and traceable uncertainty. ModTrack confines learning methods to just the \textit{Detection and Feature Extraction} stage of the MV-MOT pipeline, performing all fusion, association, and tracking with closed-form analytical methods. Our design reduces each sensor's output to calibrated position-covariance pairs $(\mathbf{z}, R)$; cross-view clustering and precision-weighted fusion then yield unified estimates $(\hat{\mathbf{z}}, \hat{R})$ for identity assignment and temporal tracking. A feedback-coupled, identity-informed Gaussian Mixture Probability Hypothesis Density (GM-PHD) filter with HMM motion modes uses these fused estimates to maintain identities under missed detections and heavy occlusion. ModTrack achieves 95.5 IDF1 and 91.4 MOTA on \textit{WildTrack}, surpassing all prior modular methods by over 21 points and rivaling the state-of-the-art end-to-end methods while providing deployment flexibility they cannot. Specifically, the same tracker core transfers unchanged to \textit{MultiviewX} and \textit{RadarScenes}, with only perception-module replacement required to extend to new domains and sensor modalities.
- Abstract(参考訳): MV-MOT(Multi-View Multi-Object Tracking)は、複数のセンサで観測されるオブジェクトの一貫したアイデンティティをローカライズし、維持することを目的としている。
視点の変化と隠蔽が、ビューと時間の間でアイデンティティの一貫性を損なうため、このタスクは難しい。
最近のエンドツーエンドアプローチでは、2D Bird's Eye View(BEV)表現とアイデンティティ関連を共同で学習し、高いトラッキング精度を実現する。
しかし、これらの手法は原則化された不確実性会計を提供しておらず、トレーニング設定に密結合し、センサレイアウト、モダリティ、データセットを再トレーニングすることなく一般化を制限する。
本稿では,モジュール型MV-MOTシステムであるModTrackを提案する。
ModTrack は MV-MOT パイプラインの \textit{Detection and Feature extract} ステージのみに学習手法を限定し、クローズドフォーム解析手法で全ての融合、関連付け、追跡を行う。
我々の設計では、各センサの出力を校正された位置共分散ペア$(\mathbf{z}, R)$; クロスビュークラスタリングと精度重み付き融合に還元し、アイデンティティ割り当てと時間追跡のために統一された推定$(\hat{\mathbf{z}}, \hat{R})$を生成する。
HMMモーションモード付きフィードバック結合型ガウス混合確率仮説密度(GM-PHD)フィルタは、これらの融合推定値を用いて、欠落検出および重閉塞下での同一性を維持する。
ModTrack は 95.5 IDF1 と 91.4 MOTA を \textit{WildTrack} 上で達成し、以前のすべてのモジュールメソッドを21ポイント以上越え、最先端のエンドツーエンドメソッドと競合し、デプロイの柔軟性を提供する。
具体的には、同じトラッカーコアが \textit{MultiviewX} と \textit{RadarScenes} に変化せず、新しいドメインやセンサーのモダリティに拡張するためには、認識モジュールの置き換えしか必要とされない。
関連論文リスト
- DM$^3$T: Harmonizing Modalities via Diffusion for Multi-Object Tracking [10.270441242480482]
本稿では,マルチモーダル融合を反復的特徴アライメントプロセスとして再構成する新しいフレームワークであるDM$3$Tを提案する。
提案するクロスモーダル拡散融合(C-MDF)モジュールを用いて,反復的クロスモーダル調和を行う。
トラッカーのロバスト性をさらに向上するために,信頼性推定を適応的に処理する階層型トラッカーを設計する。
論文 参考訳(メタデータ) (2025-11-28T06:02:58Z) - CADTrack: Learning Contextual Aggregation with Deformable Alignment for Robust RGBT Tracking [68.71826342377004]
RGB-Thermal (RGBT) トラッキングは、堅牢な全天候物体追跡のために可視および熱赤外モードを活用することを目的としている。
既存のRGBTトラッカーはモダリティの相違を解決するのに苦労している。
RGBT追跡のためのCADTrackと呼ばれる,変形可能なアライメントによるコンテキストアグリゲーション(Contextual Aggregation)を提案する。
論文 参考訳(メタデータ) (2025-11-22T08:10:02Z) - Delving into Dynamic Scene Cue-Consistency for Robust 3D Multi-Object Tracking [16.366398265001422]
3D多目的追跡は、自動運転分野において重要かつ困難な課題である。
本稿では,この原理を実現するために動的シーンCue-Consistency Tracker(DSC-Track)を提案する。
論文 参考訳(メタデータ) (2025-08-15T08:48:13Z) - Tracking the Unstable: Appearance-Guided Motion Modeling for Robust Multi-Object Tracking in UAV-Captured Videos [58.156141601478794]
マルチオブジェクトトラッキング(UAVT)は、ビデオのフレーム間で一貫したアイデンティティを維持しながら、複数のオブジェクトを追跡することを目的としている。
既存の手法は、通常、動作キューと外観を別々にモデル化し、それらの相互作用を見渡して、最適下追跡性能をもたらす。
本稿では、AMC行列とMTCモジュールの2つの主要コンポーネントを通して、外観と動きの手がかりを利用するAMOTを提案する。
論文 参考訳(メタデータ) (2025-08-03T12:06:47Z) - What You Have is What You Track: Adaptive and Robust Multimodal Tracking [72.92244578461869]
本研究では,時間的に不完全なマルチモーダルデータを用いたトラッカー性能に関する総合的研究を行った。
我々のモデルは9つのベンチマークでSOTA性能を達成し、従来の完全性と欠落したモダリティ設定の両方で優れている。
論文 参考訳(メタデータ) (2025-07-08T11:40:21Z) - Graph-Aware Contrasting for Multivariate Time-Series Classification [50.84488941336865]
既存のコントラスト学習手法は主に、時間的拡張とコントラスト技術による時間的一貫性を達成することに焦点を当てている。
MTSデータ間の空間的整合性を考慮したグラフ認識コントラストを提案する。
提案手法は,様々なMSS分類タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-11T02:35:22Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。