論文の概要: MotionTrack: Learning Motion Predictor for Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2306.02585v1
- Date: Mon, 5 Jun 2023 04:24:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 16:47:48.766449
- Title: MotionTrack: Learning Motion Predictor for Multiple Object Tracking
- Title(参考訳): motiontrack: 複数物体追跡のための学習動作予測器
- Authors: Changcheng Xiao, Qiong Cao, Yujie Zhong, Long Lan, Xiang Zhang, Huayue
Cai, Zhigang Luo, Dacheng Tao
- Abstract要約: 学習可能なモーション予測器であるMotionTrackについて述べる。
結果は、MotionTrackがSportsMOTやDancetrackなどの要求データセットに最先端のパフォーマンスをもたらすことを示した。
- 参考スコア(独自算出の注目度): 67.61450756250059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant advancements have been made in multi-object tracking (MOT) with
the development of detection and re-identification (ReID) techniques. Despite
these developments, the task of accurately tracking objects in scenarios with
homogeneous appearance and heterogeneous motion remains challenging due to the
insufficient discriminability of ReID features and the predominant use of
linear motion models in MOT. In this context, we present a novel learnable
motion predictor, named MotionTrack, which comprehensively incorporates two
levels of granularity of motion features to enhance the modeling of temporal
dynamics and facilitate accurate future motion prediction of individual
objects. Specifically, the proposed approach adopts a self-attention mechanism
to capture token-level information and a Dynamic MLP layer to model
channel-level features. MotionTrack is a simple, online tracking approach. Our
experimental results demonstrate that MotionTrack yields state-of-the-art
performance on demanding datasets such as SportsMOT and Dancetrack, which
feature highly nonlinear object motion. Notably, without fine-tuning on target
datasets, MotionTrack also exhibits competitive performance on conventional
benchmarks including MOT17 and MOT20.
- Abstract(参考訳): 検出・再識別技術(ReID)の発展に伴い,多対象追跡(MOT)において重要な進歩が見られた。
これらの発展にもかかわらず、ReID特徴の識別性の不十分さとMOTにおける線形運動モデルの主な使用により、均質な外観と異質な動きを持つシナリオにおけるオブジェクトを正確に追跡する作業は依然として困難である。
本研究では,運動特性の2段階の粒度を包括的に組み込んだ新しい学習可能な運動予測器motiontrackを提案する。
具体的には,トークンレベルの情報をキャプチャするセルフアテンション機構と,チャネルレベルの機能をモデル化する動的mlp層を採用する。
MotionTrackはシンプルなオンライントラッキング方式だ。
本研究では,sportsmot や dancetrack などの高度に非線形な物体の動きを特徴とするデータセットに対して,motiontrack が最先端のパフォーマンスをもたらすことを示す。
特に、ターゲットデータセットを微調整することなく、MotionTrackは、MOT17やMOT20といった従来のベンチマークで競合するパフォーマンスを示す。
関連論文リスト
- MambaTrack: A Simple Baseline for Multiple Object Tracking with State Space Model [18.607106274732885]
我々は、MTP(Mamba moTion Predictor)という、マンバをベースとしたモーションモデルを導入する。
MTPは、物体の時空間的位置ダイナミクスを入力として、バイマンバ符号化層を用いて動きパターンをキャプチャし、次の動きを予測する。
提案するトラッカーであるMambaTrackは、DancetrackやSportsMOTなどのベンチマークで高度なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-17T11:58:47Z) - ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - DiffMOT: A Real-time Diffusion-based Multiple Object Tracker with Non-linear Prediction [15.542306419065945]
我々はDiffMOTというリアルタイム拡散に基づくMOT手法を提案し、複雑な非線形運動に対処する。
MOTトラッカーとして、DiffMOTは22.7FPSでリアルタイムであり、DanceTrackやSportsMOTのデータセットの最先端よりも優れている。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Observation-Centric SORT: Rethinking SORT for Robust Multi-Object
Tracking [32.32109475782992]
簡単な動きモデルにより、外観のような他の手段を使わずに、最先端のトラッキング性能が得られることを示す。
そこで我々は,提案手法を OC-SORT,Observatory-Centric SORT,略してOC-SORT と呼ぶ。
論文 参考訳(メタデータ) (2022-03-27T17:57:08Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。