論文の概要: MeMoSORT: Memory-Assisted Filtering and Motion-Adaptive Association Metric for Multi-Person Tracking
- arxiv url: http://arxiv.org/abs/2508.09796v1
- Date: Wed, 13 Aug 2025 13:26:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.901877
- Title: MeMoSORT: Memory-Assisted Filtering and Motion-Adaptive Association Metric for Multi-Person Tracking
- Title(参考訳): MeMoSORT:マルチパーソントラッキングのためのメモリアシストフィルタとモーションアダプティブアソシエーションメトリクス
- Authors: Yingjie Wang, Zhixing Wang, Le Zheng, Tianxiao Liu, Roujing Li, Xueyao Hu,
- Abstract要約: 我々は,MeMoSORTを提案する。MeMoSORTはシンプルで,オンラインかつリアルタイムなMOTトラッカーで,2つの重要なイノベーションがある。
MeMoSORTは、メモリ拡張ニューラルネットワークを使用して、仮定されたオブジェクトと実際のオブジェクトの動きのミスマッチを補償する。
DanceTrackとSportsMOTの実験は、MeMoSORTが最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 3.3959720271630216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking (MOT) in human-dominant scenarios, which involves continuously tracking multiple people within video sequences, remains a significant challenge in computer vision due to targets' complex motion and severe occlusions. Conventional tracking-by-detection methods are fundamentally limited by their reliance on Kalman filter (KF) and rigid Intersection over Union (IoU)-based association. The motion model in KF often mismatches real-world object dynamics, causing filtering errors, while rigid association struggles under occlusions, leading to identity switches or target loss. To address these issues, we propose MeMoSORT, a simple, online, and real-time MOT tracker with two key innovations. First, the Memory-assisted Kalman filter (MeKF) uses memory-augmented neural networks to compensate for mismatches between assumed and actual object motion. Second, the Motion-adaptive IoU (Mo-IoU) adaptively expands the matching space and incorporates height similarity to reduce the influence of detection errors and association failures, while remaining lightweight. Experiments on DanceTrack and SportsMOT show that MeMoSORT achieves state-of-the-art performance, with HOTA scores of 67.9\% and 82.1\%, respectively.
- Abstract(参考訳): ビデオシーケンス内の複数の人物を連続的に追跡する人間支配シナリオにおける多目的追跡(MOT)は、ターゲットの複雑な動きと重度の閉塞のため、コンピュータビジョンにおいて重要な課題である。
従来のトラッキング・バイ・検出法は、カルマンフィルタ(KF)とユニオン(IoU)に基づく厳密なインターセクション(IoU)に依存しているため、基本的に制限されている。
KFの運動モデルはしばしば現実世界の物体の力学をミスマッチさせ、フィルターエラーを引き起こす。
これらの問題に対処するため、我々はMeMoSORTを提案する。MeMoSORTは、シンプルで、オンラインで、リアルタイムなMOTトラッカーで、2つの重要なイノベーションがある。
まず、メモリアシストカルマンフィルタ(MeKF)は、メモリ拡張ニューラルネットワークを使用して、仮定された物体と実際の物体の動きのミスマッチを補償する。
第二に、Mo-IoU(Mo-IoU)はマッチング空間を適応的に拡張し、高さの類似性を取り入れて、検出エラーや関連障害の影響を低減する。
DanceTrackとSportsMOTの実験では、MeMoSORTは最先端のパフォーマンスを実現しており、HOTAスコアはそれぞれ67.9\%と82.1\%である。
関連論文リスト
- Tracking the Unstable: Appearance-Guided Motion Modeling for Robust Multi-Object Tracking in UAV-Captured Videos [58.156141601478794]
マルチオブジェクトトラッキング(UAVT)は、ビデオのフレーム間で一貫したアイデンティティを維持しながら、複数のオブジェクトを追跡することを目的としている。
既存の手法は、通常、動作キューと外観を別々にモデル化し、それらの相互作用を見渡して、最適下追跡性能をもたらす。
本稿では、AMC行列とMTCモジュールの2つの主要コンポーネントを通して、外観と動きの手がかりを利用するAMOTを提案する。
論文 参考訳(メタデータ) (2025-08-03T12:06:47Z) - PD-SORT: Occlusion-Robust Multi-Object Tracking Using Pseudo-Depth Cues [8.642829333393442]
マルチオブジェクトトラッキング (MOT) は、ビデオ処理技術において注目される話題であり、消費者電子製品において重要な応用価値を持つ。
現在、トラッキング・バイ・ディテクト(TBD)がMOTの主要なパラダイムであり、フレーム単位でターゲット検出とアソシエーション・フレームを実行する。
本研究では,Pseudo-Depth SORT (PD-SORT) を提案する。
論文 参考訳(メタデータ) (2025-01-20T05:50:39Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - UCMCTrack: Multi-Object Tracking with Uniform Camera Motion Compensation [9.333052173412158]
カメラの動きに頑健な新しいモーションモデルベースのトラッカーであるUCMCTrackを紹介する。
フレーム単位で補償パラメータを計算する従来のCMCとは異なり、UCMCTrackはビデオシーケンスを通して同じ補償パラメータを一貫して適用する。
MOT17、MOT20、DanceTrack、KITTIなど、さまざまな課題のあるデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-12-14T14:01:35Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Hybrid-SORT: Weak Cues Matter for Online Multi-Object Tracking [51.16677396148247]
Multi-Object Tracking (MOT) は、望まれるすべてのオブジェクトをフレーム間で検出し、関連付けることを目的としている。
本稿では,MOTにおけるこの長期的課題を,弱い手がかりを取り入れることで,効果的かつ効果的に解決できることを実証する。
提案手法は,MOT17,MOT20,特にDanceTrackなど,様々なベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-01T18:53:24Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - MAT: Motion-Aware Multi-Object Tracking [9.098793914779161]
本稿では,様々な物体の動作パターンに着目した動き認識トラッキング(MAT)を提案する。
MOT16とMOT17の挑戦的なベンチマークの実験は、我々のMATアプローチが大きなマージンで優れたパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2020-09-10T11:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。