論文の概要: MotionTrack: Learning Motion Predictor for Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2306.02585v2
- Date: Mon, 11 Mar 2024 14:36:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 17:21:08.130400
- Title: MotionTrack: Learning Motion Predictor for Multiple Object Tracking
- Title(参考訳): motiontrack: 複数物体追跡のための学習動作予測器
- Authors: Changcheng Xiao, Qiong Cao, Yujie Zhong, Long Lan, Xiang Zhang,
Zhigang Luo, Dacheng Tao
- Abstract要約: 本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 68.68339102749358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant progress has been achieved in multi-object tracking (MOT) through
the evolution of detection and re-identification (ReID) techniques. Despite
these advancements, accurately tracking objects in scenarios with homogeneous
appearance and heterogeneous motion remains a challenge. This challenge arises
from two main factors: the insufficient discriminability of ReID features and
the predominant utilization of linear motion models in MOT. In this context, we
introduce a novel motion-based tracker, MotionTrack, centered around a
learnable motion predictor that relies solely on object trajectory information.
This predictor comprehensively integrates two levels of granularity in motion
features to enhance the modeling of temporal dynamics and facilitate precise
future motion prediction for individual objects. Specifically, the proposed
approach adopts a self-attention mechanism to capture token-level information
and a Dynamic MLP layer to model channel-level features. MotionTrack is a
simple, online tracking approach. Our experimental results demonstrate that
MotionTrack yields state-of-the-art performance on datasets such as Dancetrack
and SportsMOT, characterized by highly complex object motion.
- Abstract(参考訳): 検出と再識別(ReID)技術の進化を通じて,多目的追跡(MOT)において重要な進歩が達成されている。
このような進歩にもかかわらず、均質な外観と不均質な動きを伴うシナリオにおける物体の正確な追跡は依然として課題である。
この課題は、ReID特徴の識別性不足と、MOTにおける線形運動モデルの多数利用の2つの主な要因から生じる。
本研究では,物体の軌跡情報のみに依存する学習可能な動き予測器を中心に,モーショントラッカーであるMotionTrackを導入する。
この予測器は、運動特徴の2段階の粒度を包括的に統合し、時間力学のモデリングを強化し、個々の物体の将来の動き予測を容易にする。
具体的には,トークンレベルの情報をキャプチャするセルフアテンション機構と,チャネルレベルの機能をモデル化する動的mlp層を採用する。
MotionTrackはシンプルなオンライントラッキング方式だ。
実験の結果,motiontrackはdancetrackやsportsmotなどのデータセット上で,非常に複雑な物体の動きを特徴とする最先端のパフォーマンスをもたらすことがわかった。
関連論文リスト
- MambaTrack: A Simple Baseline for Multiple Object Tracking with State Space Model [18.607106274732885]
我々は、MTP(Mamba moTion Predictor)という、マンバをベースとしたモーションモデルを導入する。
MTPは、物体の時空間的位置ダイナミクスを入力として、バイマンバ符号化層を用いて動きパターンをキャプチャし、次の動きを予測する。
提案するトラッカーであるMambaTrackは、DancetrackやSportsMOTなどのベンチマークで高度なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-17T11:58:47Z) - ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - DiffMOT: A Real-time Diffusion-based Multiple Object Tracker with Non-linear Prediction [15.542306419065945]
我々はDiffMOTというリアルタイム拡散に基づくMOT手法を提案し、複雑な非線形運動に対処する。
MOTトラッカーとして、DiffMOTは22.7FPSでリアルタイムであり、DanceTrackやSportsMOTのデータセットの最先端よりも優れている。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Observation-Centric SORT: Rethinking SORT for Robust Multi-Object
Tracking [32.32109475782992]
簡単な動きモデルにより、外観のような他の手段を使わずに、最先端のトラッキング性能が得られることを示す。
そこで我々は,提案手法を OC-SORT,Observatory-Centric SORT,略してOC-SORT と呼ぶ。
論文 参考訳(メタデータ) (2022-03-27T17:57:08Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。