論文の概要: ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2405.15755v1
- Date: Fri, 24 May 2024 17:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 12:51:30.752441
- Title: ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking
- Title(参考訳): ETTrack:マルチオブジェクトトラッキングのためのテンポラルモーション予測器
- Authors: Xudong Han, Nobuyuki Oishi, Yueying Tian, Elif Ucurum, Rupert Young, Chris Chatwin, Philip Birch,
- Abstract要約: 時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
- 参考スコア(独自算出の注目度): 4.250337979548885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many Multi-Object Tracking (MOT) approaches exploit motion information to associate all the detected objects across frames. However, many methods that rely on filtering-based algorithms, such as the Kalman Filter, often work well in linear motion scenarios but struggle to accurately predict the locations of objects undergoing complex and non-linear movements. To tackle these scenarios, we propose a motion-based MOT approach with an enhanced temporal motion predictor, ETTrack. Specifically, the motion predictor integrates a transformer model and a Temporal Convolutional Network (TCN) to capture short-term and long-term motion patterns, and it predicts the future motion of individual objects based on the historical motion information. Additionally, we propose a novel Momentum Correction Loss function that provides additional information regarding the motion direction of objects during training. This allows the motion predictor rapidly adapt to motion variations and more accurately predict future motion. Our experimental results demonstrate that ETTrack achieves a competitive performance compared with state-of-the-art trackers on DanceTrack and SportsMOT, scoring 56.4% and 74.4% in HOTA metrics, respectively.
- Abstract(参考訳): 多くのマルチオブジェクト追跡(MOT)アプローチは、検出されたすべてのオブジェクトをフレーム間で関連付けるために、モーション情報を活用する。
しかしながら、カルマンフィルタのようなフィルタリングに基づくアルゴリズムに依存する多くの手法は、しばしば線形運動のシナリオでうまく機能するが、複雑で非線形な動きをしている物体の位置を正確に予測することは困難である。
これらのシナリオに対処するために,時間的動き予測器であるETTrackを改良した動きに基づくMOT手法を提案する。
具体的には、この動き予測器は、変圧器モデルと時間畳み込みネットワーク(TCN)を統合して、短期及び長期の動作パターンを捉え、過去の動き情報に基づいて個々の物体の将来の動きを予測する。
さらに,トレーニング中の物体の運動方向に関する追加情報を提供するモメンタム補正損失関数を提案する。
これにより、動き予測器は動きの変化に迅速に適応し、将来の動きをより正確に予測することができる。
実験の結果,ETTrackはDanceTrackとSportsMOTの最先端トラッカーと比較して,それぞれ56.4%,HOTAの74.4%の競合性能を示した。
関連論文リスト
- MambaTrack: A Simple Baseline for Multiple Object Tracking with State Space Model [18.607106274732885]
我々は、MTP(Mamba moTion Predictor)という、マンバをベースとしたモーションモデルを導入する。
MTPは、物体の時空間的位置ダイナミクスを入力として、バイマンバ符号化層を用いて動きパターンをキャプチャし、次の動きを予測する。
提案するトラッカーであるMambaTrackは、DancetrackやSportsMOTなどのベンチマークで高度なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-17T11:58:47Z) - Exploring Learning-based Motion Models in Multi-Object Tracking [23.547018300192065]
MambaTrackはオンラインのモーションベースのトラッカーで、DanceTrackとSportsMOTのデータセットで既存のモーションベースのトラッカーを上回っている。
軌道特徴抽出における状態空間モデルの可能性を利用して追跡性能を向上させる。
論文 参考訳(メタデータ) (2024-03-16T06:26:52Z) - DiffMOT: A Real-time Diffusion-based Multiple Object Tracker with Non-linear Prediction [15.542306419065945]
我々はDiffMOTというリアルタイム拡散に基づくMOT手法を提案し、複雑な非線形運動に対処する。
MOTトラッカーとして、DiffMOTは22.7FPSでリアルタイムであり、DanceTrackやSportsMOTのデータセットの最先端よりも優れている。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Observation-Centric SORT: Rethinking SORT for Robust Multi-Object
Tracking [32.32109475782992]
簡単な動きモデルにより、外観のような他の手段を使わずに、最先端のトラッキング性能が得られることを示す。
そこで我々は,提案手法を OC-SORT,Observatory-Centric SORT,略してOC-SORT と呼ぶ。
論文 参考訳(メタデータ) (2022-03-27T17:57:08Z) - MotionRNN: A Flexible Model for Video Prediction with Spacetime-Varying
Motions [70.30211294212603]
本稿では,空間と時間の両方に連続する時空変動を予測できる新たな次元からビデオ予測を行う。
本研究では,動きの複雑な変動を捉え,時空変化に適応できるMotionRNNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-03T08:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。